2018年2月、メルセデス・ベンツのコンパクトハッチバック「Aクラス」の新型モデルが発表された。走行性能の進化はもとより注目の技術は、音声入力を使ったメルセデス初のインフォテインメントシステム「MBUX」だ。クロアチアで開催された国際試乗会でその性能を試した。
シンプルなデザインで大人っぽくなった新型Aクラス。ボンネット上などは左右に2本のプレスラインが走るのみ
初代Aクラスが登場したのは1997年のこと。以来約20年間、3世代にわたって約300万台のAクラスが生産された。また「Bクラス」「CLA」「CLAシューティングブレーク」「GLA」など派生モデルも数多く誕生し、Aクラスをベースとするコンパクトファミリーは、世界でのべ550万台以上が供給された。
4代目となる新型は、ダイムラーAGのデザインを統括するゴードン・ワグナー氏が「できるだけ“線を省く”ことでより成長したAクラスのカタチを実現した」と話すように、シンプルで無駄なラインがなく上質なイメージになった。
ボディサイズは全長4419mm(先代比+120mm)、全幅1796mm(同+16mm)、全高1440mm(同+6mm)。ホイールベースを30mm延長し居住空間を拡大。荷室容量は29リッター大きい370リッターになった
上質さはデザインだけでなく、走行性能にもあらわれていた。新世代のボディ骨格は、先代の「MFA(メルセデス・フロントドライブ・アーキテクチャー)」に続く第2弾として「MFA2」と呼ばれるものだ。シャシー剛性などは先代比で約3割も高められているという。遮音や防振対策にはひとクラス上のCクラスのノウハウが投入されており、ハンドリング性能や乗り心地も大幅に改善されていた。またADAS(先進運転支援システム)も劇的に進化しており、ウインカーを操作することで自動で車線変更してくれるような上級車種譲りの機能まであたり前のように備えていた。
クラス越えの上級装備のひとつ、音声入力
走行性能について細かく解説していくと紙幅が尽きるのでこれくらいにして、今回注目するのは、メルセデス初のインフォテイメントシステム「MBUX(メルセデス・ベンツ ユーザーエクスペリエンス)」だ。
新型Aクラスのインテリア。Sクラス譲りのステアリング、Eクラスクーペ譲りのエアコン吹き出し口など、クラスを超えた上級装備が満載だ
MBUXは今年1月、米国ラスベガスで開催されたCES (Consumer Electronics Show)で発表された最新技術だが、SクラスやEクラスといった上級車種ではなく、あえて量販モデルのAクラスから導入するのは、「この類のものは何よりも普及させることが重要」という意志のあらわれだ。
運転席に座ると目の前にメーターナセルがなく、メーターパネルとナビ画面の位置に、10.25インチのディスプレイを2つ組み合わせた大型モニターがある。家族や社用車として複数の人間が使用する際には、各人のシートポジション、好みのアンビエントライトの色、お気に入りラジオ局、ナビゲーションマップの向きなどのプロファイルの保存が可能で、その都度自分の設定を呼び出すことができる。また欧州ではカーシェアリングでの使用も見越しており、使用を許可された人のスマートフォンに電子キーが送信され、NFC機能を使ってスマホでドアを開閉することもできる。
10.25インチのディスプレイを2つ組み合わせた大型モニター。本国ではオプションで標準サイズは7インチ×2のサイズになるという
オペレーティングシステムは「Linux」を採用するというが、タッチスクリーンの操作感は、さながらスマートフォンだ。従来の自動車のタッチスクリーンといえば、反応が鈍く操作にストレスを感じるものが大半だが、それがない(運転席に乗り込んでからの一連の操作や地図表示はこちらの動画を参照)。
ナビの地図画像は、ダイムラー、BMW、アウディの3社が共同所有する企業、Hereによるもの。将来的な自動運転に向けてドイツプレミアム3社が開発に取り組んでいるだけあって、従来の地図を遥かに凌ぐ詳細な情報、そして高精細さだ。その情報を活かしてリアルタイム画像と地図データを組み合わせた映像がナビモニターに投影されるのだ。複雑に入り組んだ道で、どこを曲がればいいのかわからないといった状況がなくなる。また交差点で信号待ちをしていると広い画角で周囲の映像を映し出す。運転席からでは見にくい角度の信号なども一目瞭然だ。ただし、残念ながらこのHere社の地図データは日本にはまだ対応していないという。
窓の向こうに見えるのが実際の景色。ナビ画面は実際の映像に番地やストリート名を組合せて表示されるため、とてもわかりやい。右側には通常のナビ画面も表示可能
そして最大の注目ポイントはいまどきのアップルのSiriや、アマゾンのAlexaよろしく、「ヘイ、メルセデス!」と声をかけると起動し、AI(人工知能)を活用して、音楽やエアコンの温度操作や、アンビエントライトのカラーの変更などもできるという音声入力システムだ。
「BMWってどう思う?」と聞いてみると
すでに一般的な会話に近いレベルでの音声入力を実現しており、AIが学習を深めることでより乗員の好みに適応させていくという。デモでは「BMWってどう思う?」という質問に、「悪くないね」と答える洒落っ気もみせていた。
最初は音声入力って気恥ずかしいし、エアコンの温度くらい自分で変えたほうが早くない? と思っていた。ところがしばらく使っていると、「I’m hot」とつぶやけば、エアコンの温度を1℃下げてくれたり、「twenty degree」と温度を指定すればそれに合わせてくれる。よくよく考えればクルマという密室空間は、音声入力にぴったりだ。
願いがうまく通じたり、少し会話ができたりすると、やりとりが成立すること自体が楽しくなってくるから不思議なものだ。開発者は“自然言語”ということばを強調していたが、例えば「明日のパリではサングラスが必要?」と言えば、天気の話だと理解して、天気予報をスクリーンに表示するといったフレキシブルさも持ち合わせている。うまく使いこなせば、この映像のような掛け合いも可能なようだ。
もう1つ、ナビゲーションにもユニークな機能をもっている。
先の映像で、黒人男性がナビゲーションの操作の際に「drive.single.beast」と叫んでいたのがそれ。イギリスのベンチャー企業「WHAT3WORDS」が提供するサービスで、MBUXは自動車のナビゲーションシステムとして初めてこれを導入した。地球上のすべてのエリアを3×3メートルのブロックに区分し、ランダムな3つの単語の組み合わせを割り当てたものだ。住所がない、伝えにくい場所や、郵便番号や番地がわからなくてもその3つの単語を音声もしくはタッチパネルで入力すれば、目的地にたどりつける。例えば米国・ニューヨークの「自由の女神像」の中心付近は「engine.winks.smile」、東京渋谷の「ハチ公像」の付近は「rainbow.sharp.sleep」となっている。
なぜメルセデスはこのような音声入力に関する取り組みをはじめたのか? 開発リーダーに話を聞いてみた。
「自動車には特有の操作がたくさんある」
MBUX開発リーダー Dr.Thomas Eireiner(Dr.トーマス・アイライナー)さん
2002年入社。コミュニケーションエンジニアリング、インフォメーション・テクノロジーの博士課程をもつ。近年はスピーチグループという部署で、次世代のサーバーベースのボイスレコグニションの研究開発を行う。多くのサプライヤーとの協業も伴うこのプロジェクトにて開発リーダーを務める。
なぜMBUXのような音声入力をやろうと思ったのですか?
アイライナー:スピーチレコグニション(音声認識)の技術は決して新しいものではありません。我々も90年代の末から実車に搭載してきた歴史があります。現在はスマートフォンにも応用されているように技術の進化、データの処理能力が飛躍的に向上して、これまで不可能だったことができるようになった。AIの活用によってタスクの解決や情報の取得などその可能性は無限大だし、子供の頃から自然に学んだ言語を使うことで運転の妨げになる動作を最小限におさえることができます。
たしかに音声入力って最初は抵抗があったのですが、慣れると意外に便利だし楽しいものですね
アイライナー:いますごい勢いで我々の生活に浸透してきていて、米国の統計によれば、人口の3分の2の人たちが、1日に1度は何らかのかたちで音声入力を使っているというデータがあるほどです。自動車にモバイル機器が持つ性能を取り入れていくと考えたときに、見たり、触れたりすることと合わせて音声入力は必要不可欠になっていきます。
ただ、すでに市場ではアップルもグーグルもアマゾンも、音声入力によるサービスを提供しています。なぜそれらと組まずにメルセデスが独自でやるのですか?
アイライナー:Siriやグーグルなどそうした第三者の技術も使えるようにサポートしていますし、お客さまがそれを使いたいのであればもちろん可能です。ただ、現状ではメルセデス・ベンツとしてあれをしたいこれをしたいといった細かなニーズと、既存のものではフィットしないと捉えています。例えばシートのマッサージ機能を動かしたいとか、あるコントロール機能を起動したいとか、クルマ特有の操作がたくさんあります。
アイライナー:それからもう1点、スマートフォンは電話回線やWIFIなどがなければ動きません。ですから、地下駐車場で圏外になると使えないといった制約があります。MBUXはシステムにあらかじめ音声認識のソフトウエアやデータを組みこんでおり、またナビゲーションはGPSを活用するなどして、通信環境がなくても動作するようにしてあります。
これまでの音声入力からもっとも進化したのはどこなのでしょうか?
アイライナー:従来の音声入力システムでは、ユーザーがコマンドを覚える必要がありました。定型のものでしか動かなかった。それがAIによる自然言語の認識システムの導入によって逆になった。システムが人の話すことを学習するようになってきたわけです。
なるほど。今回は英語版での試乗でしたが、日本語版も開発しているのでしょうか。日本語ってとても難しいような気がしますが。
アイライナー:いま23カ国語の開発を行っています。もちろん日本語のローカライゼーションもやっています。音声認識に関してはアメリカのトップ企業であるニュアンスと協力して開発を進めています。実はわれわれメルセデスもニュアンスも日本に開発拠点がありますから、チームを組んで一緒になってローカライズの開発をおこなっています。
アイライナーさんがイチオシの、MBUXでもっとも使ってほしい機能は?
アイライナー:それはなんと言ってもまず「ヘイ、メルセデス!」。キーワードを投げかけて欲しいですね。何にも触れず、ただ話かけるだけで立ち上がるいろんな機能をぜひ体感してほしい。あとはコマンドを学ばなくても、話しかけることで使える自然言語による使いやすさ。そしてレスポンスのよさ。待ち時間がなくスマートフォンのようなサクサク感があります。日本への導入はもう少し時間がかかりそうですが、楽しみにしていてください。
「メルセデス」じゃなくて「めるしーでぃす」?
試乗会に用意されていたのは英語仕様だったが、正直に言えば私のつたない英語では「メルセデス」のネイティブな発音がなかなかうまくいかず(「セ」というよりは「シ」に近い)、起動するのにもひと苦労だった(音声だけでなくステアリングのスイッチでも起動は可能)。
インタビュー内に現在日本語対応に向けて開発中とあったが、おそらくそれに時間がかかるため年内の国内導入が可能かどうかは未定という。メルセデス・ベンツ日本ではいま限定車などをオンライン販売する試みをしているが(こちら)、個人的には英語を学びたい人向けに限定販売で英語仕様を入れても面白いと思った。
メルセデスの開発者は、「もう車内でスマホを探す必要はない。クルマは走るスマートフォンになる」と話していたが、MBUXはクルマとの新たなコミュニケーションを生み出すものになるかもしれない。
Powered by リゾーム?