この記事は日経ビジネス電子版に『「ユーザー目線」で学ぶAIこそが、人類の未来を救う』(12月15日)として配信した記事を再編集して雑誌『日経ビジネス』1月10日号に掲載するものです。

ソーシャルメディア上のAI(人工知能)が誘発する、人間の悪行が問題になっている。米カリフォルニア大学バークレー校人間共存型AIセンターは、それを回避するための新たなアルゴリズムを提案する。

マーク・ニッツバーグ[Mark Nitzberg]
米カリフォルニア大学バークレー校人間共存型AIセンター事務局長
1983年、米オレゴン大学で数学と作曲の学位取得、87年に米ハーバード大学でコンピューター科学の博士号を取得(Ph.D.)。19歳の時、米マサチューセッツ工科大学(MIT)で非公式にマービン・ミンスキー氏らに師事し、AI(人工知能)を学ぶ。数々のテクノロジー系スタートアップ創業に従事。コンピューター科学者。2018年刊行の『The AI Generation: Shaping Our Global Future With Thinking Machines(『新たなAI大国 その中心に「人」はいるのか?』講談社刊)』の共著者。

 現在、AI(人工知能)をめぐる最大の懸念は、力を持ったロボットたちに人類が支配されるといったディストピア(反理想郷)的な未来像ではない。真の懸念は、機械が人間の悪行を加速させるのではないかということだ。中でもソーシャルメディア上のアルゴリズムが、人間の行動に与える影響に注目が集まる。例えば米ユーチューブは長年、ユーザーをより長く画面にとどめるため、お薦め動画を表示する「レコメンドエンジン」のような機能を導入してきた。

 米ニューヨーク・タイムズの2019年の報道によると、極右思想のコンテンツクリエーターの多くは、アルゴリズムに好まれる修正方法を心得ており、より多くのユーザーに対してさらに極端なコンテンツの視聴を促すことが分かっている。ユーチューブはこうした動きに対し、ヘイトスピーチを排除する努力をしてきた。また19年の研究は、ユーチューブのアルゴリズムは「過激、または極端なコンテンツの視聴を妨げる点でうまく機能している」と主張する。

この記事は会員登録で続きをご覧いただけます

残り2180文字 / 全文3137文字

【春割/2カ月無料】お申し込みで

人気コラム、特集記事…すべて読み放題

ウェビナー・音声コンテンツを視聴可能

バックナンバー11年分が読み放題

この記事はシリーズ「グローバルインテリジェンス」に収容されています。WATCHすると、トップページやマイページで新たな記事の配信が確認できるほか、スマートフォン向けアプリでも記事更新の通知を受け取ることができます。