人間の感情を認識するAIの開発に乗り出す企業が相次いでいる。感情には正確な「答え」が存在せず、AIを成長させるためのデータの収集が難しい。データの解析方法などを工夫して、部分的にヒトの能力を超えるAIが登場し始めた。

(日経ビジネス2017年11月13日号より転載)

トヨタ自動車のコンセプトカーに搭載されたAIは、ドライバーが眠気を自覚する前に音楽を流すなどして覚醒を促す(写真=稲垣 純)

 トヨタ自動車は今秋の東京モーターショーで、感情認識AI(人工知能)「Yui(ユイ)」を搭載したEV(電気自動車)を展示した。ユイは昨年設立した米国子会社、トヨタ・リサーチ・インスティテュートが開発。運転手の気分に合ったドライブコースなどを提示する。

 開発担当者の井戸大介氏は「ドライバーの表情を観察し、早期に眠気を検知するのが目玉の機能だ」と説明する。あくびなどで本人が眠気を自覚する前に、ユイが兆候を検知。音楽をかけるなどして覚醒を促して、事故を未然に防ぐという。なぜこんなことが可能なのか。

 一般的には、AIがヒトを超える感情認識能力を得るのはハードルが高い。AIを成長させる「教師データ」をそろえるのが難しいからだ。

 AIブームの先駆けとなった「画像認識」と比較すると分かりやすい。当初は猫の画像を見て、「これは猫です」と回答する簡単な課題に用いられていた。今では、サングラスやマスクで顔を隠した犯罪者を防犯カメラの画像から探し出すなどの用途に使われ始めた。顔を隠した画像という「問題」と、それが誰なのかという「正解」をセットにした教師データを用意できたからだ。日々生み出される大量のデータから問題と正解を繰り返し学ぶことで、AIは初めて見る「応用問題」も解けるようになる。

 一方で感情認識AIの場合、「眠い顔」や「驚いた顔」という「問題」を集めようにも、ヒトが感情をあらわにする瞬間を撮影するのは難しい。

 表情の背後にどんな感情が潜んでいるのかという「正解」も、曖昧で個人差がある。そのためヒトが明確に判断できる、分かりやすい表情の画像を教師データに使うことになる。ヒトが判断できる教師データで学習しただけでは、AIはヒトを超えられない。