例えばミリ波レーダーが検出した異物を、カメラ画像上にプロットして、両者の情報を統合する。単純化すれば、ミリ波レーダーは測距能力と遠距離認識力が高く、画像はものの形状から対象を種別に分類したり、情報を読み取ったりできる。レーダーが早期に発見した異物を画像上にマークして、そこを重点的、優先的に画像処理することが可能になる。そういう長所短所を組み合わせていたのが従来のやり方である。
カメラシステムだけにするということは、そういうミリ波レーダーからの助けを借りずに、画像解析のみから読み取るデータ量を増やすことになる。当然、上述したような画像データの重点位置の優先処理ができなくなるのでしらみつぶしで処理するハードウエアの能力や、ソフトウエアで、画像から読み取れるプロファイリング的情報分析能力を高めていかなくてはならない。
ADASは複雑・高コストになる傾向を持つ
件のスイフトのケースは、段差と金属柵で作られた頑丈な中央分離帯で仕切られた道路での追い越しであり、ドライバーであれば常識的に右側からの飛び出しはあり得ないと判断できるが、コンピューターによるプロファイリング的推測範囲をそこまで広げようとすれば、実現のためにはソフトウエアの開発、高速演算エンジンの搭載、消費電力的にも大変なことになりそうだ。「ここでは右側からの飛び出しは警戒しなくて大丈夫」という人間が行った判断は「何と何がどう組み合わさった際にそう思われるのか」から研究が必要だし、判断材料となる情報を得るためには、何らかのセンサーの追加が必要になるかもしれない。
アプローチは無限にある。ドライバーは、後方から近づいてきたバイクをそもそも認識しているので、追い抜きに際して右前に出てきたからといって驚くことは何もない。「じゃあ、人間と同じように、時系列で移動先予測を行うシステムにしよう」という方法もあり得るだろう。
でも、これをやろうとすれば、カメラの数は増えるし、それに要する演算容量もまた膨大になるだろう。相手は1台とは限らない。自車の四方八方に多数のクルマやバイクや自転車や歩行者が存在し、それぞれが思惑を持って進路と速度を変更し続けて進行している。人はそれを「同一速度同一方向の調和的な流れと、全体に対して異質で特異な動きに分けながら」あるいは「俊敏なバイクは要注意」などと、グループ分けしながら警戒レベルをざっくりとラベリングして把握することができるのだが、それはコンピューターにとっては大変な処理である。
テスラはすでに周囲の交通の把握をやっている。いや、やっていると書くと完璧にできていると誤解する人もいるので、「挑んでいる」と訂正する。時系列で、例えば遠くから近づいて来るときは「クルマ」と認識していた車両が、ある地点で「バイク」であると、種別判定が変わったりすることもあり、まだまだ発展途上のシステムだ。テスラ以外の他社でも最新のシステムでは同様のトライアルを行っており、同様に発展途上だ。
前後左右と斜めまで含めて監視するカメラだけでも膨大な情報量になる。仮に、そこにさらにミリ波レーダーが加わって、センサー間の矛盾した判断をリアルタイムで処理するとなるとこれはえらいことだ。しかもそれを、現実的な価格で構築していくのだとすれば、ほぼ無理といっていいだろう。
今のハードウエア構成の延長で考えるならば、センサー側の認識率を上げて、センサーからアウトプットする段階でリスクの有る無しの結論を出し、演算処理で行うルーチンをできるかぎり減らしていく、というところか。量子コンピューターが安くなって信頼性が上がり、車載できるようにでもなれば考え方が根本的に変わるかもしれないが、そんな未来の話を今しても仕方がない。
Powered by リゾーム?