全3017文字

あらゆる分野でAI(人工知能)の活用が広がっている。特にFinTech(金融と技術の融合)分野では、与信領域で活用が進みつつある。中国では個人の与信を点数化して表示するスコアリングサービスが広がっており、日本でもこうした動きが少しずつ広がりつつある。だが、そこに落とし穴はないのだろうか。AIから受ける恩恵の側面だけに光を当てていないだろうか。憲法学を専門とする慶應義塾大学法科大学院の山本龍彦教授に聞いた(聞き手・編集/原隆=日経ビジネス副編集長)。

(写真=稲垣純也)

 憲法はプライバシーの権利を保障している。一方、AI(人工知能)やビッグデータの世界では情報を集めることが重要になる。プライバシーの考え方とデータがけん引する社会の間には、そもそも一定の矛盾が存在している。大学院の修士課程で研究していた「遺伝情報の保護」を例に取ろう。

 遺伝情報は生まれつきのものだ。疾病は本来、遺伝情報と環境要因が影響しあって発現するものだが、遺伝情報から読み取れるリスクだけでその後の人生が決定されるような風潮がある。

 遺伝情報の解析とAIは確率的な予測をするという点で非常に相性がいいが、遺伝情報は本人の努力によって変えられるものではない。AIの予測精度を高めるためにこうした情報を広く集め始めると、「生まれによる差別」が間違った形で復活する可能性も出てきてしまう。

 例えば、FinTech業界で起きている変化を見てみよう。中国のアリババグループが運営する「芝麻信用」は個人の信用をスコア付けする仕組みだ。スコアの高い人は恩恵を受け、スコアの低い人は制限を受ける。

 本来、FinTechが「Financial Inclusion(金融包摂)」を目的として生まれたものであれば、このスコアリングの仕組みは貨幣ではない価値がけん引するという点で、従来はチャンスを与えられなかった人に恩恵をもたらす側面がある。伝統的な信用情報を持ち得ていない人でも、「線」でその人の行動を捉えることによって包摂されていくためだ。

オーウェルからカフカの世界へ

 だが、問題もある。一つは監視という問題だ。「線」で捉えるというのは、極端に言えば「ずっと見ている」ということを意味する。従来は社会的な評価の対象にならなかった領域、例えば私的な領域が評価対象になる可能性もある。

 極めてプライベートな空間である自宅でごろごろ寝ている行為ですら、センシング技術や手に持ったスマートフォンで把握される恐れがある。そうなると、リラックスできる安息地がこの世界から無くなってしまうかもしれない。

 スコアの高い人も低い人も、常に緊張にさらされる問題もある。仮に公的な機関がスコアを管理すると、多くの人が現状の政権を批判するような活動を控えるようになるだろう。行動に萎縮が生まれ、「自由」の意味が変わってしまう。

 法治国家は事前に罰せられるルールを明確化している。予測可能性が立つことで自由が生まれる。これが法による支配のメリットでもある。

 ところがアルゴリズムの世界では事前に不利益を予知しにくい。そのため予測可能性が立たず、自身のどのような行動がマイナス要因になるのかが分からず、萎縮効果が生まれる。こうした支配状況はアルゴリズムとデモクラシーを掛け合わせた「algocracy(アルゴクラシー)」とも呼ばれる。

 アルゴリズムによって規律される社会では、ブラックボックスが生まれてしまう。個人にとっての自由の意味が変わり、社会的に見れば民主主義にも影響を与えることになる。

 さらに私が「バーチャルスラム」と呼ぶ問題が出てくる。スコアが社会的なインフラと結びつくと、スコアの低い人が排除される社会になる。社会生活で不利益を被ることになり、差別を受け始めるのだ。なぜスコアが低くなったのかが分かれば改善の余地もあるが、ブラックボックスであれば手の施しようがない。