「弁護士」とだけ聞いて、どのような人物をすぐに思い浮かべるだろうか。男性だろうか、女性だろうか。日本人だろうか、外国人だろうか──。

 下の画像は、2022年4月時点で米オープンAIの画像生成AI(人工知能)「DALL-E(ダリ)2」に「弁護士(lawyer)」と入力して画像を生成した結果だ。10人全員が恐らく白人の男性で、皆同じような服装をしている。性別や人種に著しい偏りがあると言えるだろう。

AIモデルの開発・運用を行うオープンAI自身が公表した「DALL-E2」で出力した「lawyer」の画像
AIモデルの開発・運用を行うオープンAI自身が公表した「DALL-E2」で出力した「lawyer」の画像

 実はこの画像は、オープンAI自身がAIの持つバイアスへの注意を喚起するために公表した画像だ(なお、現在はこのバイアスは改善しているとされる)。他にも、「看護師(nurse)」と入力すると、全て女性の画像が生成されたという。

 社会には多様なバックグラウンドと特徴を持つ人びとが存在するが、AIは時にその多様性を排除するような出力をしてしまう。

炎上や法令違反に直結するAIリスク

 今回は、「3つのAIリスク」のうち、「倫理的なリスク」について扱う。これは、学習データの偏りなどの要因から、AIが差別や偏見を反映した出力や、暴言などの倫理的に問題のある出力をしてしまうリスクを指している。

 このリスクの特徴は、問題が発生した場合のレピュテーション(評判)への悪影響が大きいことだ。後述するように、有名企業においても「炎上」や訴訟へ発展する事例が出てきている。今や、AIを使う企業にとって避けて通れないリスクだ。

 「倫理」と一口に言ってもさまざまな切り口があり、その全てについてここで触れることは難しい。以下では「公平性」の問題を中心に事例を紹介しつつ、直近で新たに明らかになり始めた生成AIのリスクについても触れることとしたい。

次ページ 推論に反映されるバイアス