データや倫理の整備が鍵

 技術者や研究者はAIのダークサイドに立ち向かう取り組みを進めている。

 活発なのはAIが学習する基になるデータを健全に保ったり透明性を高めたりする動き。フェイスブックは今回の疑惑を受け、ターゲティング広告に使うデータの透明性を高める施策に乗り出した。欧州の「一般データ保護規則(GDPR)」はプロファイリングに関するガイドラインを定め、個人に重大な影響を及ぼす完全な自動処理による決定に人々が服さない権利を示した。

声を上げ始めた技術者
●AI兵器の開発に反対する技術者の動向
出所:(上)トビー・ウォルシュ氏HP、(下)米ニューヨーク・タイムズ

 AIに学習させるデータから「毒」を抜くことを支援する企業も登場した。メタデータはユーザー企業が用意したデータをリアルタイムに検査して不適切な表現を取り除くクラウドサービスを提供。AIに学ばせる「正解データ作りを支援する」(野村社長)。

 倫理的な基準を設ける議論も進む。非営利団体「Future of Life Institute」は17年1月に「アシロマAI原則」と呼ぶ23項目のAI開発原則を公表。米国電気電子学会(IEEE)はAIや自律型システムの開発ガイドラインの第2版を17年12月に公開。グーグルのピチャイCEOは18年6月、AIの兵器への使用を禁止すると発表した。

 AIにデータを与えるのも指示するのも人間。AIのダークサイドとは我々人間のダークサイドにほかならない。

日経コンピュータ

システム管理者、情報システム担当者らITプロフェッショナルからITで企業改革を進める経営者まで、有益な情報をタイムリーに提供する。