AIアシスタントのプラットフォームを目指す米Viv Labsが、初めてのデモを公開した。2016年5月9日からニューヨークで開催されたイベント「TechCrunch Disrupt NY 2016」でのことだ。

 Vivは「Siri」のオリジナル開発者であるAdam Cheyer氏やDag Kittlaus氏らが起業した。音声によるAIアシスタントのSiriは、最初はiOS用のアプリとして発表されたが、すぐに米Appleに買収された。現在のSiriはiPhoneやiPadの標準AIアシスタントになっていることは周知の通りだ。

 ニューヨークでのプレゼンテーションは、Kittlaus氏によって行われた。筆者はこのイベントの現場には行っていないが、プレゼンテーションはYouTubeで公開されている。そのデモを見ると、音声によるかなり複雑な質問にも答えられるようになっている。

 例えばデモでの質問には以下のようなものがあった。「3週間前の木曜日には、シアトルでは雨が降っていたか?」「明後日のゴールデンゲートブリッジ周辺では、気温が華氏70度を超えるか?」

 現在のAIアシスタントも、「今日の天気は何?」くらいの質問にはちゃんとした返事をくれるが、このVivはいくつもの難関を乗り越えている。例えば「ゴールデンゲートブリッジ周辺」が場所を指すこと、「明後日」とは時に関することであることを理解し、さらに質問に答えるための適切なWebサービスを探し出している。Kittlaus氏によると、この質問ではAIは44ステップの思考を経て回答にたどり着いているという。

 現在Vivは、音声認識はできても、音声による返答はできない。それでも、AppleのSiriや米GoogleのAndroid端末が備える「OK, Google」などをはるかに越えた複雑な質問に答える仕組みを備えているのが分かる。

「Siriを始めた当初」のビジョンを実現

 筆者は以前、Viv共同創設者のCheyer氏による講演を何度か聞き、実際にインタビューもしたことがある。その時彼が言っていたのは、AppleのSiriは当初もくろんでいたビジョンのほんの一部が実装されたにすぎないということだった。本当は、単純な質問に答えるだけではなく、ユーザーの日常生活で必要なことを手助けするような役割を担わせたかったのだ。それをいよいよVivでやろうというわけだ。

 VivがこれまでのAIアシスタントと異なる点は、まだある。

 一つは特定の企業が自社の製品に独占的に搭載するという閉じた存在ではなく、開かれたエコシステムを目指していることだ。つまり、外部の企業がクラウドサービスのような形でVivの機能を利用できる。アプリケーション開発者は、自社のサービスをVivに盛り込んだり、自ら開発したハードウエアにVivの機能を搭載したりできる。つまりVivは、AIアシスタントの「プラットフォーム」になろうとしている。

 もう一つは、Vivの応答パターンは、アプリケーション開発者がそのプログラムを一つ一つ記述(ハードコーディング)しなくても良いという点だ。Vivはユーザーの意図を理解すると、自動的にその後のプログラムを自分で書き出していくという。同社はこの技術を「Dynamic Program Generation」と呼んでいて、これが「コンピュータ科学のブレークスルー」だと主張している。先に挙げた「ゴールデンゲートブリッジの天気」に答えるための44のステップも、Vivが自律的に生成したものという。この仕組みがあれば、AIアシスタント機能の適用領域を広げるのが簡単になる。