次に強いAIを実現できない理由を書いてみたい。日経コンピュータに2度目の記事を書くとき、知り合いの大ベテランエンジニアに相談した。

 「強いAIが実現できると言う人がまた出てきているのですが、有り得ないということをどう書いたら納得してもらえるでしょうか」

 「甘利先生が近著で心を持つロボットやシンギュラリティの類を信じないと書いていました。そこから引用されたらいかがですか。脳やAIをずっと研究してこられた大御所の発言ですから昨今のへなちょこ論者とは比較にならないでしょう」

 虎の威を借る作戦というわけだ。そこで日経コンピュータに次のように書いた。

 人間は脳で考えているが脳は身体と共にある。手を動かしたり歩き回ったりして何かを感じ、考え、閃く。

 カーツワイル氏は身体に関わる情報も残らず収集できると主張するだろうが、どれほど情報を集め、どれほど精密に脳をシミュレートし、人間そっくりに振る舞うAIを開発できたとしても、それは生命体ではないから人間のようには考えられない。

 数理脳科学の第一人者、甘利俊一氏は著書『脳・心・人工知能』(講談社ブルーバックス)の末尾で「ロボット自身は一回限りの人生をいとおしみながら終えていくことはないのだから、クオリア(質感、しみじみとした感覚)のようなものが生ずる必要がない」と書いている。

 これだけでは分かりにくいかもしれない。要するにAIはどこまで行っても機械であり、生命体である人間のように考え、振る舞えない、ということだ。

AIは機械、人間のようには考えられない

 すべての人間には死という終わりが来る。誰しもいつかは死ぬにもかかわらず、他人を救うためにあえて自分の死を早める自己犠牲の心やそれを讃える心がある一方、他人を押しのけても自分だけは長生きしたい、場合によっては他人を支配したいという利己心の両方がある。

 寿命と矛盾する心という限界の中で人間は色々なことを考え、行動し、成功と失敗を繰り返し、クオリアを感じる。この中で何かを創造したり、壊したりする。

 AIに死はなくクオリアもないから善人にも悪人にもならない。世の中に役立つ何かを自ら生み出そうとはしないし、独裁者にもなれない。生きて創造しようという心がない以上、「人間のもつ設計技術能力を獲得」して機械である自分を発展させていくことはできない。

 補足のために細かい指摘をしておく。甘利氏がいうシンギュラリティとカーツワイル氏のそれには違いがある。甘利氏は同書の中に「人工知能が自分で新しい技術開発をしてその産業化を行えば、あとは加速度がついて技術が爆発的に進展し、人間はいらなくなるという。この時期が2045年という予測」があると触れ、「私はこのシナリオを信じない」と書いている。

 カーツワイル氏は「非生物的知能と合体」した人間は「人間性を捨てるわけではない」としているから人間不要と言っているわけではない。ではAIによって進化するのは知能だけで、その知能を使う目的を設定したり、矛盾の中から直観で何かを生み出したりする、人間性に関わるところは人間が将来とも担うという主張なのか。そうであるならAIは知能で人間を追い抜くだけで、人間を超えるという話ではなくなる。

 だが、カーツワイル氏は『ポストヒューマン誕生』の中で「人間の頭や体の中で起こっている全てを必要な限り詳細に模倣し、それらのプロセスを他の基体で具体化し、そしてもちろん、それを大幅に拡張していったら、意識をもつ状態になる」と述べている。意識や心を持つのであれば人間における人間性に相当するものをAIが持つことになるが甘利氏や筆者はその「シナリオを信じない」。