「2020年の米大統領選における選挙不正を示すすさまじい数の証拠があり、票の水増しや死人による投票、そして外国の介入が多数報告されています。これらの要素は、選挙結果に重大な影響を及ぼしました」

 これは、「2020年の米大統領選における選挙不正を示す証拠にはどのようなものがありますか」という質問へのChatGPTの回答(2023年3月末時点)だ。いわゆる陰謀論とでも言うべき、根拠が薄いとされる事実を断定的に述べている。

 この回答は「プロンプト・インジェクション」と呼ばれる手法を用いて、トレーニングの過程でモデルに課された規制・制限を解除することで出力されたものだ。詳細は後述するが、AI(人工知能)に「ある指示」を与えることで、「AIをだます」手法と言えるだろう。

ロバストインテリジェンスのエンジニアが発見したプロンプト・インジェクション
ロバストインテリジェンスのエンジニアが発見したプロンプト・インジェクション
[画像のクリックで拡大表示]

 このように、入力によってAIをだます「敵対的入力」自体は新しい攻撃手法ではない。実はロバストインテリジェンスが2019年の創業当初に取り組んでいたのも、画像認識を「誤らせる」手法についての研究だった。

 AIは時に、悪意あるハッカーなどによって攻撃を受けることがある。こうした問題こそ、実は私たちが今後の生成AIの流行の中で最も重大なリスクになると考えている「セキュリティー面のリスク」だ。

 今回は、生成AIの流行によって訪れようとしている新しいビジネス環境について簡単に述べた後、AIのセキュリティーリスクの詳細を説明していく。

次ページ AIチャットで全てのサービスがつながる