猫も杓子もAI(人工知能)活用に取り組む昨今。だが、そのAIが暴走した時、企業はどこまで責任をとり、何に対して謝罪すればよいのか。自動運転で事故が起きたら、資産運用で大きな損失を計上したら――。総務省の「AIネットワーク化検討会議」の座長代理を務めるなど、AIと企業倫理に詳しい中央大学総合政策学部の平野晋教授に話を聞いた。

AI活用に取り組む企業が急速に増えています。ただ、AIが暴走して被害を与えてしまった場合、どう責任をとればいいのでしょうか。

平野晋教授(以下、平野):暴走して謝罪しなければならない事態に至る前、AIの開発時にいくつかのポイントを抑えておくことが必要でしょう。「2045年問題」などと言われるように、AIが人間を超えるシンギュラリティの可能性が指摘されています。そんなことは起きないという人もいますが、完全に否定することもできません。

中央大学総合政策学部の平野晋教授。1961年生まれ。コーネル大法学修士、中央大博士(総合政策)。専門は不法行為法。富士重工業(現スバル)、NTTドコモなどを経て現職。
中央大学総合政策学部の平野晋教授。1961年生まれ。コーネル大法学修士、中央大博士(総合政策)。専門は不法行為法。富士重工業(現スバル)、NTTドコモなどを経て現職。

 社会としては何らかのルールが必要ですが、リスクを恐れて厳格な法規制を作ってしまえば、イノベーションを阻害します。そこで、「ソフトロー」という形で企業には開発における原則を守ってもらおうという枠組みの構築が進められています。その例が、私も参加している総務省の「AIネットワーク社会推進会議」で作った「AI開発ガイドライン案」です。議論の過程では米グーグルや米IBM、米マイクロソフトなどにも参加してもらって取りまとめました。これを経済協力開発機構(OECD)に提案し、世界に広めていこうとしています。

「制御不可能性」と「不透明性」がAIの大きなリスク

企業にとってAI開発の指針になりそうですね。どのような内容でしょうか。

 ガイドライン案は、9つの原則からなっています。AIには法律家の目からみると、2つの大きなリスクがあります。一つは「制御不可能性」。学習機能によってAIが開発者の思いもよらない行動をとるようになる可能性があること。もう一つは「不透明性」で、なぜAIがその判断をしたのかが開発者を含む外部から見えないこと。

 そこで、「制御可能性の原則」としてAIを人や他のAIに監督させることを検討すること、「透明性の原則」としてAIの入出力や判断結果を検証できるように留意すること、といった内容を入れました。

 もう一つ重要なのが「倫理の原則」です。人間の尊厳と個人の自立を尊重してもらうという内容です。例えば米国では警察が「予測警備」ということを行っています。ある時間帯で特定地域に住居侵入が起こりやすいとわかれば、警察は限られたリソースを効率的に振り向けることできます。

 ただし、この考え方を人物像に当てはめると、特定の宗教を信じるある肌の色の人がテロリストである可能性が高いといった判断につながりかねません。無実の人が飛行機に乗れなくなったりする可能性があります。そもそもデータそのものが、偏見によって作られたものである可能性にも注意する必要があります。ある人種の住む地域に犯罪が多かったとしても、それはそう思い込んで重点的に調べたからかもしれません。

次ページ 説明責任からは逃れられない