起きてはいけない事故が起きてしまった。2018年3月18日に米アリゾナ州で、米ウーバー・テクノロジーズの自動運転実験車両が起こした世界で初めての自動運転車による死亡事故のことである。この事件では、あまりにも不可解なことが多い。そしてこの事件は、自動運転車においてまだ議論すべきことが多く残っていることをはっきりと突きつけた。
あまりにも多く残る謎
まず不可解なのは、事件が起こったアリゾナ州の地元警察であるテンピ警察署が、車載カメラによって撮影された事故直前の動画を事故発生3日後の3月21日に公開したことである。しかも、この動画を公開すると同時に、同署の署長は、「状況を見る限り、事故は避けるのが難しかったようだ」とコメントしたと伝えられている。
確かにこの映像を見ると、自転車を引いた女性が暗闇から急に現れ、間もなく衝突した様子が映し出されており、「避けるのが難しい事故だった」という印象を見る人に与える。しかし、だからといって「避けるのが難しかったようだ」とコメントするのは適切だったとは思えない。
例えば、なぜこの車両はハイビームで運転していなかったのだろうか。筆者は、対向車線のクルマの眩しさを考慮してロービームで走っていたのかと思っていたのだが、米国で運転する機会の多い友人に聞いてみると、こういう道路ではハイビームにしないと怖くて走れないと語っていた。もしハイビームにしていたら、より手前で女性を発見することができ、この事故を避けることができたかもしれない。
もう一つ「避けるのが難しかった」というコメントが適切でないと感じるのは、この実験車両がLiDAR(レーザーレーダー)やミリ波レーダーを搭載しているからだ。LiDARは近赤外線レーザー光を発射し、それが物体に反射して戻ってくるまでの時間を測定することで、物体の有無を検知したり、物体までの距離を測定したりするセンサーなので、原理的には暗がりでも物体を発見できる。同様に、ミリ波レーダーは周波数77~79GHzのミリ波帯の電波を使って、LiDARと同様の原理で物体の有無や物体までの距離を測定する。仮に道路が暗くてカメラが歩行者を捉えることが難しかったとしても、LiDARやミリ波レーダーを使って歩行者を検知することは可能だったはずだ。
ウーバーの実験車両に搭載されていた米ベロダインのLiDAR「HDL-64E」(写真:ベロダイン)
もちろん、歩行者が建物などの陰から突然飛び出してきたような状況だと、LiDARやミリ波レーダーでも検知は難しい。しかしテンピ警察署が公開した動画を見ると、歩行者は幅の広い道路を横切っているだけであり、自動運転車両と歩行者の間に遮るものは何もない。ウーバーの実験車両が搭載しているLiDARは、米ベロダインの「HDL-64E」という、自動運転用の実験車両で多く使われている高性能・高コストの製品である。天候などの条件にもよるが、公開されているスペックによれば最大で約120m離れた物体を検知できる。
今回の事故は最高時速が40マイル(約64km)制限の道路で発生している。自動運転の実験車両はほぼ制限速度近くで走行しており、そのまま減速せずに歩行者に衝突したようだ。時速60kmで走行していた場合の停止に要する距離は37mと言われているが、この内訳は、空走距離(ドライバーが危険を発見しブレーキを踏んでからブレーキが効き始めるまでの距離)が17m、制動距離(実際にブレーキが効き始めてからクルマが停止するまでの距離)が20mである。危険を発見してからブレーキを踏むまでの反応速度は人間よりも自動運転車のほうが早いので、そのことを考慮に入れると、クルマが歩行者を発見してから停止するのに要する距離は40mほどだろう。
今回公開された動画の長さは車両が歩行者に衝突するまでの約4秒間であり、その間の走行距離は、時速64kmと仮定すれば約71mとなる。仮にこの動画の始まった直後に実験車両がフル制動していたら十分停止できる距離であり、LiDARの検知距離の範囲にも十分入っていた。技術的には歩行者との衝突は避けられたはずだ。これらのことを考慮すると、「避けるのが難しかったようだ」とコメントすることはウーバーに落ち度がなかったように世論をミスリードする可能性がある。
そしてまた、LiDARやミリ波レーダーを搭載していたのになぜ停止できなかったか、というのも不可解な点だ。センサーや、センサーデータの処理プログラム、あるいはそのデータを基にクルマの挙動を制御するプログラムに何らかの欠陥、もしくは不具合があった可能性が高い。
責任を問われるのは誰なのか
では、仮にセンサーやプログラムに欠陥、もしくは不具合があった場合、ウーバーはどのような責任に問われるのだろうか。「もし日本で同様の事故が起きたら」という前提で考えてみよう。
交通事故を起こした場合の責任には、大きく分けて「民事的責任」と「刑事的責任」、それに「行政責任」の三つがある。民事的な責任を果たすとは、簡単にいえば被害者に損害を賠償することであり、刑事的な責任を果たすとは、犯罪行為について国から処罰を受けることを指す。そして行政責任を果たすとは、「免許停止」「免許取り消し」といったような行政処分を受けることを指す。
読者の皆さんの中で、自動車を運転する方は任意保険に加入していると思う。この保険の目的は、もちろん運転者や同乗者が負傷したときの治療費や入院費をまかなうため、車両が破損したときの修理費をまかなうため、という意味合いもあるが、主目的は万一交通事故の加害者になった場合の賠償責任を果たすためである。日本では、任意保険に加入していないドライバーが事故を起こした場合のために、すべての車両に自賠責保険の加入を義務付けている。
交通事故で民事責任を問われるのはドライバーだけではない。もし、クルマを所有する人が誰かにクルマを貸して、そのクルマが事故を起こした場合には、所有者も賠償責任を問われることになる。自分が運転していたわけでもないのに、もし自分のクルマを人に貸していて事故が起きた場合、自分がかけていた任意保険が使われるのはこのためだ。
また運送会社の車両が事故を起こした場合などには、運転者を雇用している使用者の責任として会社が損害賠償責任を負うこともある。さらに、車両そのものに欠陥があった場合は、メーカーが「製造物責任法(PL法)」に問われる。道路に穴が開いていたとか、信号機が故障あるいは停電していたなど、道路や設備に瑕疵(かし)があった場合は、行政などが「営造物責任」を問われることもある。
こうした観点から今回の事件を考えてみると、車両を保有するウーバーに民事的な賠償責任が発生するのは間違いない。これは上記のような、運送会社の車両が事故を起こした場合と同様である。実際ウーバーと被害者の遺族との間で、3月29日までに和解が成立したと報道されている。
またトラックドライバーの例に即して考えると、今回ウーバーの自動運転車に乗っていた“ドライバー”に「不法行為」があった場合には、ドライバーにも賠償責任が問われることになる。ただ、実際に賠償責任が問われるかどうかは、ドライバーとウーバーの間でどのような契約が交わされていたかによって変わる。
加えて、今後の調査によって実験車のセンサーの故障や自動運転プログラムの不備・不具合などが発見された場合には、PL法に基づく賠償が課せられる可能性もある。今回は、自動運転の実験車両を製作したのがウーバー自身なので、PL法に基づく賠償もウーバーに問われることになるが、もし今後、自動運転車両のメーカーと、それを運行する業者が異なる場合には、運行業者だけでなく、車両のメーカーもPL法に基づいて賠償責任を負う可能性がある。
難しい刑事責任の追及
次に刑事的な責任を考えてみよう。通常の交通事故では主にドライバーが処罰の対象であり、メーカーの責任が問われることはまれだ。現行の道路交通法では、第4章に「(安全運転の義務)第七十条 車両等の運転者は、当該車両等のハンドル、ブレーキその他の装置を確実に操作し、かつ、道路、交通及び当該車両等の状況に応じ、他人に危害を及ぼさないような速度と方法で運転しなければならない」と定められている。これは、公道上での自動運転車の実験においても同様だ。
国内では、公道上で自動運転車の実験を行う際のガイドラインが定められており、公道での走行の前に、テストコースで十分にシステムを検証することや、ドライバーに十分な訓練をすること、自動運転のシステムをオーバーライド可能(人間の操作を優先する)にすることなどが求められている。
では、ウーバーやドライバーの刑事的な責任はどうなるか。まずドライバーについて考えると、公開された動画を見る限り、前方を十分に監視していたとはいえず、「安全運転の義務」を怠っていた可能性が高い。もしドライバーとウーバーの契約内容の中に「前方の監視は不要」などの項目が入っていればドライバーの責任は免除される可能性があるが、そうでなければ、少なくとも日本ならドライバーは安全運転義務の不履行で刑事責任を問われる可能性が高い。
一方、ウーバーの刑事責任を考えると、十分にドライバーを訓練していなかったり、あるいは、システムに欠陥があった場合などにはその可能性がある。ただしこれまでの判例を見ると、かなり悪質な例でないと刑事責任まで問われることは少ない。
過去に死亡事故などで刑事訴追された例を見ると、三菱自動車のリコール隠しのように「欠陥が分かっていたのに隠蔽していた」というような悪質な例に限られている。タカタのエアバッグのリコールでも、当時の経営陣が米国で刑事訴追されているが、内容はやはり「欠陥が分かっていたのに隠蔽していた」というもので、技術的な欠陥そのものに対してではない。
こうした過去の例から考えると、今回のウーバーの事故で、仮にシステムに不十分な点が発見され、そのために被害者を認識できなかったとしても、「欠陥があると分かっていたのに実験を続行した」「整備状況が不十分なのに放置していた」というような悪質な場合でなければ、刑事訴追までには至らない可能性が高い。
つまり、過去の判例から類推する限り、今回の事件でウーバーに刑事責任を問うのが非常に難しいことが分かる。ウーバーに賠償責任はあるのの、刑事責任については、仮にシステムの欠陥が事故の原因であったとしても、先に説明したようにこれまでの判例を見ると「欠陥があるのを知りつつ隠蔽していた」というような悪質なケースでない限り問われない可能性が高いからだ。
少なくとも日本の法規の下では、ウーバーよりもむしろ、ドライバーが刑事責任を問われる可能性が高いことに理不尽さを感じる読者もいるだろう。現在は自動運転システムが不完全なため、システムが対応できない状況になった場合などに備えて人間のドライバーが同乗している。しかし、仮に今回のようなケースでドライバーが前方を監視していたとしても、事故を防げたかどうかは疑問だ。
そう考える第一の理由は、カメラ画像を見る限り、歩行者を発見してからブレーキをかけたのでは間に合わなかったと思われるからだ。また、仮にもっと手前から歩行者が見えていたとしても、ドライバーは「自分に歩行者が見えているのだからクルマにも見えているはず」と思ってブレーキをかけないかもしれない。ドライバーだけに「安全運転の義務」を押し付けるのは無理があるのだ。今回の事故は、各社の自動運転実験車両のドライバーたちを怖気づかせたことだろう。実際、トヨタ自動車は「オペレーターの心理状況に配慮して」、当面の間自動運転車の公道実験を中止すると発表した。
ではどうしたらいいのか?
今回の事件は、人間の監視の限界を突きつけるとともに、「その自動運転車を路上で実験しても安全か」「監視ドライバーの訓練は十分か」といった安全性の確認体制が現状では不十分であることを示した。では今後、どうしたらいいのか。一つの解決策は、すでに様々な個人や機関から提案されている「自動運転車の免許証」を導入することだ。これは公道を走らせる自動運転車に、国家がシミュレーションによる自動運転プログラムの「バーチャルテスト」と、実験車両を使った「実技試験」を実施し、これに合格した車両だけを公道走行可能にするという構想だ。逆に、パスした車両は「国のお墨付き」を得たことになり、メーカーやドライバーは刑事的な責任は問わないことにする。
こうすれば、粗悪なプログラムを搭載した車両が公道を走る危険を排除できる一方で、メーカーやドライバーは刑事的な責任から解放されることになり、安心して自動運転技術の開発に取り組める。ただ、言うは易く行うは難し。この「バーチャルテスト」や「実技試験」の具体的な中身を決めるのには相当な困難を伴う。そもそも、どういう試験をすれば安全か、という条件を決めることそのものが、自動運転車の開発と同じくらい技術的難易度が高いからだ。それでも、今後自動運転車が広く一般に普及するうえで、この「自動運転車の運転免許」の問題を避けては通れないだろう。
この記事はシリーズ「クルマのうんテク」に収容されています。WATCHすると、トップページやマイページで新たな記事の配信が確認できるほか、スマートフォン向けアプリでも記事更新の通知を受け取ることができます。
Powered by リゾーム?