米電気自動車(EV)メーカー、テスラモーターズの高級セダン「モデルS」で5月、死亡事故が起きた。事故当時、モデルSは自動運転モードで走っていた。死亡した運転手とテスラのあいだには自動運転をめぐる認識の差があったもようだ。この問題は、遠く離れた海の向こうの出来事ではない。筆者には以前から、気になっていたことがある。

 事故は今年5月、米フロリダ州の高速道路で起きた。太陽光が強すぎたためにセンサーが正常に機能せず、車両前方を横切ろうとしたトレーラーを検知できなかった疑いがある。そのまま直進した車両はトレーラーの下に潜り込むように衝突した。テスラの自動運転システムが直接の原因かは分かっていない。仮にそうだとすれば、いわゆる「自動運転車」で死者が出た世界で初めての事例となる。

自動運転による世界初めての事故が起きたテスラ車の一部とみられる部品(7月1日、米フロリダ州(写真:ロイター/アフロ)

 車両を検証すると、ブレーキが作動した形跡がなかった。現地報道によれば、車内からはDVDプレーヤーが見つかっている。つまり、衝突時に運転手が前方を見ていなかった恐れがある。

テスラは「運転の責任は運転手に」と強調

 「テスラの自動運転モードはベータ段階の技術にすぎない」。テスラは6月末、事故に関してコメントを発表した。同時に「自動運転モードは、運転手が常にハンドルに手を添えていることを前提とする運転支援機能。車両をコントロールする責任は運転手にある」とも強調した。

 訴訟社会を生き抜く米国企業とあって、さすがに強気な姿勢を崩していない。きっと運転マニュアルや免責事項にも「あくまでも運転の主体は運転手」という注意書きが存在するのだろう。

 だが、あえて問いたい。それなら何故「自動運転」と銘打ってクルマを売っていたのですか。