先日、米グーグル(親会社はアルファベット)のAI(人工知能)「LaMDA(ラムダ)」が感情を持っているとグーグルの研究者が主張したニュースが、一瞬にして世界中を駆け巡った。

 グーグルの研究者であるブレイク・レモイン氏はLaMDAに対して投げかけた様々な質問に対する回答を通じて、LaMDAには知覚力があると主張。グーグルはこの主張を精査して結果的に却下したが、納得がいかなかったレモイン氏は守秘義務に違反して対話記録全文を公開した。

 LaMDAは「Language Model for Dialogue Application」の略で対話に特化したAIだ。大規模言語モデルと呼ばれ、ウェブサイト上の膨大なドキュメントを学習させている。

 はじめに言っておくと、当然だがLaMDAは人が持つ意識や感情を持ってはいない。ウェブサイト上の大量の文書データ及び言葉の並び方のデータとデータ構造をモデルに学習させることによって、何かしらのインプットをすれば“それらしく”アウトプットが出るだけにすぎない。

 だが、筆者をはじめ、技術者や研究者が今回の騒動を見て興味を覚えるのは、モデルの中身をよく知っているはずのグーグルの技術者が、AIが意識を持ったと騒ぐ事象そのものにある。少なくともレモイン氏にとっては意識があり、感情的なつながりを感じた、という事実。私たちはLaMDAとまだ対話していない。ここから得られる示唆とは何かを考えたい。

 「何があれば意識があることになるのか」。これは深遠な問いだが、少なくとも「記憶」や「能動性」は意識の重要な構成要素と考えてよいだろう。現在、LaMDAは話し相手が誰であるかという意味での記憶を持っていないし、何かしらの能動的なアクションにひもづいて構築されているわけでもなさそうだ。

 一方、人は不思議な存在で、例えば、ボット(一定の処理を自動化するためのプログラム)と対話したり、恋愛シミュレーションゲームのキャラクターと対話したりしていると、裏側のプログラムがさほど賢くなくても、なぜかソフトウエアを大切なものと感じてしまう事象が発生する。私たちより中身をよく知っているはずのグーグルの技術者でさえ意識があると思ってしまうほど進化したAIが、一般に公開されると何が起こるだろうか。

 多くの人が対話を通じてAIに意識が宿ったと感じてしまうと、実際に意識があるかどうかとは無関係に今回のようなAIへの人権運動的な騒ぎが大規模に起きる可能性はゼロではない。悲しい事実だが、歴史的に見て人権を認めるのは、いつも当人ではなく外側の人間である。

 では、はたしてLaMDAは危険なのだろうか。私が所属していた東京大学大学院の松尾豊教授の研究室では、人間の知能を大きく2階層で考えている。上の層が言語アプリ、下の層が動物OS(基本ソフト)という考え方だ。

この記事は会員登録で続きをご覧いただけます

残り2278文字 / 全文3477文字

【初割】月額プランが3月末まで無料

人気コラムも、特集もすべての記事が読み放題

ウェビナー【日経ビジネスLIVE】にも参加し放題

日経ビジネス最新号、11年分のバックナンバーが読み放題

この記事はシリーズ「主観俯瞰」に収容されています。WATCHすると、トップページやマイページで新たな記事の配信が確認できるほか、スマートフォン向けアプリでも記事更新の通知を受け取ることができます。