米国の実業家イーロン・マスク氏は事あるごとに「AI(人工知能)が人類の脅威になる」と警告している。英国の宇宙物理学者、故スティーブン・ホーキング博士も生前、AIを危険視していた。彼らの思想に多大な影響を与えたとされる人物こそが、スウェーデン出身で英オックスフォード大学教授を務める哲学者、ニック・ボストロム氏だ。ボストロム氏の目に、ChatGPTはどう映るのか(電子メールでのやり取りを基に再構成した)。

ニック・ボストロム氏
英オックスフォード大学教授
理論物理学や計算論的神経科学なども研究する哲学者。オックスフォード大の「人類の未来研究所」の所長を務める。自身のウェブサイトでも積極的に情報発信する

ChatGPTに最初に触れた時、率直にどう思いましたか。

ニック・ボストロム氏:物事が変化するスピードが速くなっていると感じました。ChatGPTのベースになっている大規模言語モデル(LLM)「GPT-3」の対話機能を調整し、人間のフィードバックに基づく強化学習を実行したおかげで、ChatGPTは人々を驚かせる性能を獲得しました。

 これはLLMの潜在能力の高さを示しています。潜在能力が高いということは、LLMには実行できる能力があるのに、私たちがどうやってそれを実行させればいいか分からない可能性があるということです。

 (AIの目的を開発者の目的と一致させる)アライメントという観点からすると、興味深いことであり、心配なことでもあります(編集部注:ボストロム氏は、AIの目的を人間の目的に一致させることができなければ、将来的に人間の知性をはるかに超えるAIが暴走し、人類を絶滅させてしまう恐れがあると警告し続けている)。

 数年先の技術レベルと比較すれば、現在のLLMはまだ性能が限られています。それでも、すでに開発者は目的を一致させることに苦労しています。

ChatGPTの価値観を人間の価値観と調和させる必要性がありそうです。

ボストロム氏:アライメントの問題は、ChatGPTよりももっと進化したシステムが登場したときに、さまざまな側面から出てくるでしょう。それは長期的な計画を立てたり、自らが置かれた戦略的な状況を精巧に構造化できたりするシステムが登場したときです。

次ページ 人が負うべき義務