AIに関する会談のためにホワイトハウスに入る米グーグルのスンダー・ピチャイCEO(最高経営責任者)(左)と米オープンAIのサム・アルトマンCEO(写真:AP/アフロ)
AIに関する会談のためにホワイトハウスに入る米グーグルのスンダー・ピチャイCEO(最高経営責任者)(左)と米オープンAIのサム・アルトマンCEO(写真:AP/アフロ)

 「技術が道徳的次元を持つということは明らかである。同様に、倫理が技術的次元を持つことも明らかである。(中略)我々の道徳的基準は、技術との密接な相互作用のなかで作られる」

 こう述べたのは、「技術の設計者の道徳」についての分析で知られるオランダの技術哲学者、フェルベークだ。2023年4月に開催されたG7(主要7カ国)デジタル・技術大臣会合で議題に上がった「アジャイル・ガバナンス(俊敏な統治)」の学術的な議論でも参照された考え方である。今日のAI(人工知能)ブームにおいても、技術を軸にさまざまな社会の在り方が見直されるなかで、道徳の基準を具体化した「法」「制度」に激変が生じつつある。

 技術単体のインパクトを議論するだけでは、有効に社会実装を進めることはできない。技術が人・社会との相互作用のなかで発展していく以上、法令などの関連する制度動向の注視は不可欠だ。

 例えば本連載の第1回で、バイデン米大統領のツイートを取り上げた。その後、ホワイトハウスは、米Google(グーグル)、米OpenAI(オープンAI)などのAI企業トップを招聘(しょうへい)して会談を行い、2023年5月に責任あるAI活用を進めるための新たな行動計画を発表した。生成AIの技術的な変化とそれに接した社会の変化を受けて、実際に政策が急激に動き始めていることがわかる。

 今回および次回の連載では、こうしたAIをめぐる制度動向に注目する。AIリスク管理の観点で特に重要なトピックを取り上げつつ、日本企業に求められるアクションを議論していきたい。

他人事ではいられない、米欧で進むAI規制

 まず重要なのは、米国やEU(欧州連合)の政策動向を注視し、AIリスク管理のスタンダードの変化を常に把握することだ。G7デジタル・技術大臣会合の閣僚宣言でも、各国で政策的アプローチが異なることが触れられた。今回は特に影響の大きい米欧の動向を見ていきたい。

 最初に、冒頭で触れた米国の状況を見てみよう。

 そもそも米国のAI関連規制は、州ごと、産業ごとに個別に検討される傾向にあった。しかし生成AIの流行も受けて、バイデン政権も連邦レベルでの取り組みに本格着手している。

 特に注目すべきは、冒頭で述べた行動計画に含まれる「生成AIシステムの公開評価」だ。主要なAI開発者による生成AIシステムについて、政府の掲げる原則に適合しているかなどの評価が実施される見込みであり、特に政府やAI開発者とは異なる独立した立場からの客観的な評価がポイントとされる。

 次回詳しく触れるが、こうした「第三者検証」はAIリスク管理において重要な考え方であり、今後、他のAIシステムに対してもスタンダードとなっていく可能性がある。

次ページ EUは日系を含む全企業が規制対象に