「個人の尊重」と矛盾

 要するに、機械学習をベースとした「個別化」は、個人の尊重とかえって矛盾することがあるということです。憲法13条は、“All of the peoples shall be respected as individuals”(すべて国民は、個人として尊重される)と規定していますが、現実には、“All of the peoples shall be respected as segments”(すべて国民は、セグメントとして尊重される)なのです。

 もともと個人尊重原理が十分に根づいていない日本では、このような主張――「セグメントじゃなくて、私を見て!」――はあまり強く聞かれません。アルゴリズムによる「最適化」こそ、個人の尊重に資するのだ、という議論すら見られます。しかし、そこでいう最適化が、あくまで確率的・統計的なもので、社会全体の効率性や「滑らかさ」を重視する功利主義的な思想に基づくものであることには注意が必要です。最適化は、時に個人を置き去りにします。次のような問いは重要です。

 過去の行動記録からつくられる「確率という名の牢獄」(ビクター・マイヤー=ショーンベルガー)に閉じ込められ、考え方をある特定の方向へと刺激・誘導・強化させられること、セレンディピティを縮減され、ありえた何かになることを否定されることは、本当に「個人として(as individuals)」尊重されていることになるのか。

(出所)『デジタル空間とどう向き合うか』115ページ
(出所)『デジタル空間とどう向き合うか』115ページ
[画像のクリックで拡大表示]

 AI技術と融合したアテンション・エコノミーを、このような視点、すなわち「集団への回帰」という視点から批判的に捉えることはとても重要です。ユーザーを「ハムスターの回し車」の中に押し込んで、そのセグメントが投影する世界の中を、ぐるぐると、ただひたすら走らせる。それが、時間とコストをかけて「かけがえのない個人」の発する声にちゃんと耳を傾けましょうね、という個人の尊重原理とどれほど親和的なのか。

 例えばEUでは、一般データ保護規則という立法で、AI等による完全自動決定に服しない権利が保障されています(22条1項)。これは、個人の尊重原理に基づき、個人の人生に重要な影響を与える事柄について、セグメントベースドの確率的判断をそのまま決定の根拠にしてはならない、という考え方を示したものと理解できます。

 また、EUのデジタルサービス法は、超大規模プラットフォームに対して、プロファイリングに基づかない 、少なくとも一つのレコメンダー・システムを提供することを義務づけているわけですが(29条)、これは、セグメントに基づきフィルタリングされた情報提供を拒否することを個人に認めることで、「セグメントからの自由」、「回し車からの自由」を保障するものと考えることができるでしょう。

日経BOOKプラス 2022年7月19日付の記事を転載]

炎上、分断、誘導、中毒――いまネット上で何が起きているのか?

アテンション・エコノミー(関心を競う経済)にさらされている私たちは、ネット世界とどう折り合いをつけるべきか? インターネットは利便性を高める一方で、知らず知らずのうちに私たちの「健康」を蝕(むしば)んでいます。気鋭の計算社会科学者と憲法学者が、デジタル空間に潜む様々な問題点を指摘、解決への糸口を探ります。

鳥海不二夫、山本龍彦著/日本経済新聞出版/990円(税込み)

この記事はシリーズ「ビジネスTopics」に収容されています。WATCHすると、トップページやマイページで新たな記事の配信が確認できるほか、スマートフォン向けアプリでも記事更新の通知を受け取ることができます。