差別発言するチャットボット

 氾濫するディープフェイクを問題視した米掲示板サイト、レディットは18年2月に利用規約の一部を改定。性的な画像やビデオの配布を禁じる中で、「偽造された描写も含む」と明記した。FakeAppの開発者が立ち上げたコミュニティー「deepfakes」も閉鎖した。

 AIが悪用されかねない懸念は既に現実になっているかもしれない。16年の米大統領選ではAIが暗躍し、投票行動を操った可能性がある。

 舞台は世界最大のSNS(交流サイト)である米フェイスブックだ。3月に最大8700万人の利用者データが流出して大統領選の選挙工作に使われた疑惑が発覚。同社のマーク・ザッカーバーグCEO(最高経営責任者)は米議会で謝罪した。膨大な利用者データを分析して政治広告を配信する過程で同社のAI技術が使われた可能性がある。

2018年4月に米議会の公聴会で証言するフェイスブックのザッカーバーグCEO(写真:PIXTA)

 「AIシステムは肯定的な反応と否定的な反応の両方を人々から引き起こす。社会面の課題は技術面の課題と同じぐらい大きい」。約2年前の16年3月25日、米マイクロソフトで研究開発部門を担当するピーター・リー氏は同社のブログでこうつづった。2日前に公開したチャットボット「Tay(テイ)」が攻撃的で不適切な発言を繰り返したことを謝罪し、このような経験から「学ぶ努力を続けていく」と述べた。

 同社はチャットアプリを頻繁に利用する18~24歳のユーザーが対話を楽しむ相手としてテイを開発。ネットで利用者と対話するうちに、より洗練された対話ができるように成長していくはずだった。ところがテイはヒトラーを礼賛する発言や、人種差別的な発言を繰り返すようになり、同社はわずか1日でテイの公開を停止した。

 同社が先駆けて公開した日本の「りんな」などは対話に使う言葉を同社の開発者が教え込む形式だった。しかし、テイはネット上で利用者が書き込んだ内容を学んで成長する仕組み。ここに不適切な言葉を学ぶ脆弱性があった。