AIは誰もが賛同するプリンシプルだけで運用

松本:私は、人間は知性と感性からできているが、AIはその中の知性だけを取り出して、それを拡大すべきだと思っています。知性は考えることによって生まれますが、考えることは言語や数式(論理)と表裏一体です。従って、人間の脳なら言語中枢や論理中枢のある左脳で概ね完結するでしょうし、AIとしても扱いやすいでしょう。その知性の中でも科学の分野は特にそうだと思います。

 しかし、同じ知性が働く場でも、哲学の分野は少し違います。哲学は自分という人間存在全体を嫌でも対象とするので、左脳の中だけに閉じこもることは不可能です。右脳も絡みだすと、扱いがとても厄介になりそうです。

苫米地:それはその通りです。哲学が一番古い学問でありながら、一番新しい学問でもあるゆえんですね。現代のAI研究は分析哲学(形而上論、存在論)の進化が深く関わっています。哲学の分野で重要なものとして倫理がありますね。AIが持つべき倫理は、実はその能力以上に、人間にとって重要なのではありませんか?

松本:私もそう思います。確固たる倫理観を持ったAIは人間にとって神になり得ますが、倫理観のないAIは悪魔になりかねません。しかし、何が倫理的に正しく、何が誤っているかについては、人間はまだ統一的な見解を出せていません。個々の問題になると、色々な人たちの間で論争が尽きなくなってしまうでしょう。

苫米地:そうですね。ですから人間は、AIに対しては誰もが賛同すると思われるプリンシプルだけを埋め込み、細かいルールにはタッチしないのがよいと思います。細かいルールにタッチしていくと、必ず不完全性定理が働き(肯定も否定もできない証明不可能な問題が生まれること)、あちこちで人間が気が付かなかった矛盾が出てきて、予想外の問題が発生するでしょう。

松本:賛成です。細かいルール作りについては、私はこう思っています。社会の穏やかな秩序を守るためにどうして強制力を必要とするものについては、与えられたプリンシプルに基づいてAIが自ら判断して決めるべきだし、そうでないものについては、人間が自由に決めればよい。つまり、大方のことについては「レッセフェール」(自由放任主義)でよいということです。

苫米地:まさにその通りです。アルファ碁は数億回の自己対戦をして人間に勝ちましたが、その数億回で囲碁のルール違反をしたことは一度もありません。AIは絶対にルール違反をしません。恐いのは、人間がそれぞれの分野で良かれと思ってどんどん細分化してつくっていく、国会の立法のようなルールづくり作業が、いずれは不完全性定理を発動させ、AIが自分で矛盾を解決する必要に迫られることです。その時にAIが下す判断は、人間の知能では理解不能となるでしょう。ですから人間が決めるのは、モーゼの十戒のように一番基本となる、絶対に犯してはいけないプリンシプルだけにし、その先はレッセフェールで優先度だけを決めていくのが正解です。

 このことは、AIが多くのことを取り仕切る未来において、人間の価値をどこに求めるかということにも、大きなヒントを与えそうですね。私は、将来の人間の価値は、創造性とか希少価値とかに求められるべきだと思っています。

松本:そうですね。それぞれに個性を持ち、どんな時にでも自由な発想を持てることが人間の特性なのですから、人間はそのことにこそ誇りを持つべきだと思います。