全2399文字

 画像診断や手術支援、医薬品の開発など、医療の分野でもAI(人工知能)の導入が進みつつある。将来的にAIが医療過誤や事故を起こした場合、責任はだれが取るのか。生死を左右する医療分野にAIを取り入れることに倫理的な問題はないのか。離島でへき地医療に従事した経験がある医師にして、現在はAIスタートアップ「アイリス」を率いる沖山翔氏に話を聞いた。

(聞き手は奥平力)

沖山翔氏 2010年東京大学医学部卒業。日本赤十字社医療センター(救命救急)などでの勤務を経て15年から医療ベンチャーのメドレーの執行役員に。17年にアイリス創業、AI医療機器の研究開発を行う (写真:稲垣純也)

AI人工知能が誤診をしたら責任はだれが取るんでしょうか。

アイリスの沖山翔代表(以下、沖山氏):今のAIは医師が使うただのツールにすぎないので、やっぱり使った医師が責任を取ることになります。さらにその先、ドラえもんは行き過ぎにしても、AIが本当に自律的に診断をするようになった場合の責任の所在も答えが出ていて、自動運転がレベル5になった時と同様にメーカーです。製造者責任でメーカーが責任を負うことになります。

 医療が特殊なのは、命にかかわるところです。不可逆で定量的に議論ができない。例えば自動運転中の事故については、割に合うように計算して保険制度を用意すればいい。でも命には値付けができない。時間をかけて社会的合意を得る必要があります。

医療分野にAIを導入することにはやはり抵抗のある人もいると思います。

沖山氏:責任の所在をちゃんと明らかにしておくことが納得感につながると思っています。AIはただのツールだから医療事故はツールを使った医師の責任、仮にAIドクターができてしまった場合にはメーカーの責任だということが広く共有されれば、抵抗感もなくなるのではないでしょうか。

 AIがレントゲンの見逃しをしたらどうするんだというのはよく話題になりますが、人間だって見逃します。当直明けの人間の脳はビール2杯飲んだ時と同じ状態だといわれているんですよね。ただ、AIという言葉はインパクトが強いため、患者さんの間には「どうしても生身の先生に見てほしい」といった意識が残り続けることも想像されます。いかに摩擦なくAIを取り入れていくかというところで、大事になるのが“倫理”なんです。

 そもそもAIが現れる以前から医療と倫理は切り離せません。外科医は合法的に人にメスを入れることを認められていますが、普通の人がやったら傷害罪です。これは議論の上で医師法で制度化し、さらに時間をかけて医者が外科手術をすることについて社会的合意を得たわけです。AIも同じプロセスを通っていくのでしょう。 

AIと倫理の問題は世界中で話題になっています。

沖山氏:米国でいま、スタンフォード大やマサチューセッツ工科大で博士号(PhD)を取ったAI技術者たちは、いわゆるミレニアル世代で、AIと倫理の課題をすごく重視しています。米グーグルで2018年に、社員による「AIの軍事利用」に反対する運動が起きて一部で辞職者も出た事件は象徴的でしょう。AI技術者に定着してもらうためにも倫理の問題は避けて通れません。

 AI倫理の話でやっぱり避けられないのが、「アシロマAI 23原則」です。非営利団体「Future of Life Institute」が世界の名だたる倫理学者や宗教家、数学者や起業家をカリフォルニアの小さな街アシロマに集めてまとめたものです。

 このうちで私が好きなのが17番目の“非破壊”の原則です。「高度な人工知能システムがもたらす制御の力は、既存のプロセスを覆すものであってはならない」といったものです。若い起業家はよく「破壊的イノベーション」などと言いますが、破壊していい領域とそうじゃない領域がある。医療で破壊と言ったら人が死んでしまいますから。医学の祖ともされる古代ギリシアのヒポクラテスは第一に、「Do no harm(傷つけてはいけない)」と言っているんですが、これが医師の間で今でも守られ続けている倫理観だと思います。