乗り物

自動運転で発生した2件の死亡事故への「誤検知」の影響とは?

by Jakob Härter

2018年3月に、車の「自動運転」と関連する2件の交通事故が発生しました。1つは、テスラ・モデルXが誤って中央分離帯へと衝突してドライバーが死亡した事故、もう1つはUberの自動運転車が道路を横断中の女性をはねた死亡事故です。これらの事故には「誤検知」が大きく関わっていると、Hackadayが指摘しています。

Fatalities vs False Positives: The Lessons from the Tesla and Uber Crashes | Hackaday
https://hackaday.com/2018/06/18/fatalities-vs-false-positives-the-lessons-from-the-tesla-and-uber-crashes/

テスラ・モデルXの事故は2018年3月23日に発生。高速道路をオートパイロット機能を利用して走行していた車両が車線の分離帯に衝突し、運転手が亡くなりました。別の車両を使った実験で、オートパイロット機能は高速道路の出口へと向かう白線を追いかけてしまい、結果的に車両が車線の分離帯へと導かれてしまうことがあると実証されています。

ドライバーが死亡したテスラ・モデルXの事故は過去のケースと同じような状況で発生していたことが判明 - GIGAZINE


高速道路上にはコンクリート製防護柵や道路標識など、静止した物体が数多く存在しています。当然、車両に搭載されている前方監視用レーダーはこうした物体を検知していますが、一方で、単純なレーダーの角分解能は低く、衝突しないであろう標識まで「誤検知」するので、もしレーダーの反応を重視すると、オートパイロット機能は標識があるたびにブレーキを踏む恐れがあります。このため、テスラではカメラに重点を置くことで安定した速度での走行を実現し、結果、分離帯を「見落とす」ことになってしまった、というわけです。

Uberの自動運転車による事故は2018年3月18日に発生しました。

Uberの自動運転車が女性をはねて死なせる事故が発生、Uberは自動運転の公道テストを中止 - GIGAZINE


この事故では、車に搭載されていたLIDARシステムが、事故の6秒前に「将来的に進路を変更するかもしれない自転車か未知の乗り物」を検知していたことがわかっています。それでも緊急ブレーキが作動しなかったのは、LIDARもまたテスラのレーダーと同じように「誤検知」が多くて無意味な緊急ブレーキをかけてしまうことがあったため、緊急ブレーキシステムが無効になっていたからでした。

検出アルゴリズムのチューニングにおいて、たとえば「自転車を検出する」の事例だと、「自転車」のしきい値を低くし過ぎると本当は自転車ではないものまで検知してしまって不必要なブレーキを招き、とても運転できないようなものになってしまいます。一方、しきい値を高くし過ぎると検出すべき自転車を見逃してしまって、事故が発生する恐れが高まります。


今後、システムはどんどん改善されていき検知能力はどんどん向上していくはずですが、「誤検知をゼロにする」ところまで到達するのは非常に困難であると考えられます。

あくまで運転手のアシスタントまではできても完全な自律運転は不可能なのか、あるいは何らかの形でこの問題を乗り越えるメーカーが出てくるのか。日本でも2020年をめどに自動運転車導入に向けた法整備が行われるとのことなので、この分野の動きには要注目です。

この記事のタイトルとURLをコピーする

・関連記事
世界初の自動運転車実用導入国は日本になるかも、日本政府が2020年めどに法整備へ - GIGAZINE

自動運転車の大敵は雨でも霧でもなく実は「洗車機」 - GIGAZINE

Appleがドライバーの意図をくみとって駐停車できる自動運転車技術の特許を出願 - GIGAZINE

自動運転車を「信号機」として利用するサイバー信号機が開発される - GIGAZINE

in ソフトウェア,   乗り物, Posted by logc_nt

You can read the machine translated English article here.