あらゆる技術には光と影がある。それはAI(人工知能)も例外ではない。フェイク動画で人をだます、人の行動を操作する、自動運転ソフトを誤動作させて人を傷つける──。悪意に操られる危険がある以上、AIの「ダークサイド」を知っておく必要がある。
(日経ビジネス2018年7月16日号より転載)
「言ってもいないことを本当に言ったかのように見せかけられる時代になった」。2018年4月、フェイク(偽の)ニュースに警鐘を鳴らすバラク・オバマ前米大統領の映像が話題になった。
理由は発言内容ではない。この映像自体がフェイクだったからだ。作ったのは米映画監督ジョーダン・ピール氏と米メディアのバズフィードである。
ディープフェイク。有名人の顔を別人の顔に合成した精巧なニセ動画の総称で、PCソフト「FakeApp」を使うことが多い。FakeAppは深層学習(ディープラーニング)を活用し、不自然さを感じさせないように画像を加工できるとの触れ込みだ。冒頭に紹介した映像では、ピール氏が話したときの口元の動きをオバマ氏の映像に重ね、あたかもオバマ氏が話しているかのように見せかけた種明かしをする。映像の中の“オバマ氏”はこう締めくくる。
「気をつけろよ、おまえたち」
警告は単なる脅しではない。既にネット上にはディープフェイクがあふれている。メルケル独首相の顔が途中からトランプ米大統領にすり替わる演説、有名ハリウッドスターのまだ製作されていない「続編」の名場面、有名女優の顔をはめ込んだポルノ──。
メルケル・トランプが演説?
●「ディープフェイク」で作成したニセ動画の例
演説するメルケル独首相(上)の顔が途中からトランプ米大統領(下)に差し替わった
出所:YouTube(写真:The New York Times/Redux/アフロ)
差別発言するチャットボット
氾濫するディープフェイクを問題視した米掲示板サイト、レディットは18年2月に利用規約の一部を改定。性的な画像やビデオの配布を禁じる中で、「偽造された描写も含む」と明記した。FakeAppの開発者が立ち上げたコミュニティー「deepfakes」も閉鎖した。
AIが悪用されかねない懸念は既に現実になっているかもしれない。16年の米大統領選ではAIが暗躍し、投票行動を操った可能性がある。
舞台は世界最大のSNS(交流サイト)である米フェイスブックだ。3月に最大8700万人の利用者データが流出して大統領選の選挙工作に使われた疑惑が発覚。同社のマーク・ザッカーバーグCEO(最高経営責任者)は米議会で謝罪した。膨大な利用者データを分析して政治広告を配信する過程で同社のAI技術が使われた可能性がある。
2018年4月に米議会の公聴会で証言するフェイスブックのザッカーバーグCEO(写真:PIXTA)
「AIシステムは肯定的な反応と否定的な反応の両方を人々から引き起こす。社会面の課題は技術面の課題と同じぐらい大きい」。約2年前の16年3月25日、米マイクロソフトで研究開発部門を担当するピーター・リー氏は同社のブログでこうつづった。2日前に公開したチャットボット「Tay(テイ)」が攻撃的で不適切な発言を繰り返したことを謝罪し、このような経験から「学ぶ努力を続けていく」と述べた。
同社はチャットアプリを頻繁に利用する18~24歳のユーザーが対話を楽しむ相手としてテイを開発。ネットで利用者と対話するうちに、より洗練された対話ができるように成長していくはずだった。ところがテイはヒトラーを礼賛する発言や、人種差別的な発言を繰り返すようになり、同社はわずか1日でテイの公開を停止した。
同社が先駆けて公開した日本の「りんな」などは対話に使う言葉を同社の開発者が教え込む形式だった。しかし、テイはネット上で利用者が書き込んだ内容を学んで成長する仕組み。ここに不適切な言葉を学ぶ脆弱性があった。
敵対的サンプル画像
AIのダークサイドの最たるものは戦争や殺人の「AI兵器」だろう。完全に人間の判断を排除して攻撃できる自律型兵器は現時点で存在しないとされるが、多くのAI研究者は同兵器の開発を禁止すべきと声を上げている。
「我々はグーグルが戦争ビジネスに参加すべきではないと信じている」。3000人以上の米グーグル社員が、深層学習で映像を解析する米国防総省の研究プログラムに参加しないようスンダー・ピチャイCEOに求める書簡に署名したと、米ニューヨーク・タイムズなどが18年4月に報じた。
負の方向にも使える
●能力向上によって生まれたAIの光と影
「韓国科学技術院(KAIST)とのいかなる分野での協力もボイコットする」。世界30カ国からなるAIやロボットの研究者約50人が18年3月、KAISTに公開書簡を送った。KAISTが18年2月に、韓国軍需企業と「国防人工知能融合研究センター」を共同設立したことに反対するためだ。
兵器とは縁遠い自動車が牙をむくおそれもある。
AIによる自動運転車が備える、人間や障害物を認識する技術を悪用するのだ。一例が「敵対的サンプル画像」と呼ぶ手法。AIに認識させる画像に人間には見えないノイズを混入させて誤認識させ、文字通り「暴走」させる。意図的な混入だけでなく、「悪意なく掲示される画像を誤認識する可能性もある」(ビッグデータ活用支援ベンチャー、メタデータの野村直之社長)。
学習を制御しないと暴走する ●一般利用者と対話するマイクロソフトのAIとその学習の仕組み
出所:Twitter
|
データや倫理の整備が鍵
技術者や研究者はAIのダークサイドに立ち向かう取り組みを進めている。
活発なのはAIが学習する基になるデータを健全に保ったり透明性を高めたりする動き。フェイスブックは今回の疑惑を受け、ターゲティング広告に使うデータの透明性を高める施策に乗り出した。欧州の「一般データ保護規則(GDPR)」はプロファイリングに関するガイドラインを定め、個人に重大な影響を及ぼす完全な自動処理による決定に人々が服さない権利を示した。
声を上げ始めた技術者
●AI兵器の開発に反対する技術者の動向
出所:(上)トビー・ウォルシュ氏HP、(下)米ニューヨーク・タイムズ
AIに学習させるデータから「毒」を抜くことを支援する企業も登場した。メタデータはユーザー企業が用意したデータをリアルタイムに検査して不適切な表現を取り除くクラウドサービスを提供。AIに学ばせる「正解データ作りを支援する」(野村社長)。
倫理的な基準を設ける議論も進む。非営利団体「Future of Life Institute」は17年1月に「アシロマAI原則」と呼ぶ23項目のAI開発原則を公表。米国電気電子学会(IEEE)はAIや自律型システムの開発ガイドラインの第2版を17年12月に公開。グーグルのピチャイCEOは18年6月、AIの兵器への使用を禁止すると発表した。
AIにデータを与えるのも指示するのも人間。AIのダークサイドとは我々人間のダークサイドにほかならない。
日経コンピュータ
システム管理者、情報システム担当者らITプロフェッショナルからITで企業改革を進める経営者まで、有益な情報をタイムリーに提供する。
Powered by リゾーム?