かつては「人工知能が人間に勝てるのはチェスや将棋まで」と言われていたのに、さほどのタイムラグもなく、囲碁でも人間が人工知能に勝てなくなりつつあることを考えれば、人間医師よりも人工知能が優れた診断を下す日が目前に迫っているといっても過言ではあるまい。

 もっとも、診断面で明らかに人工知能の能力が人間を上回ったとしても、当面は医師の診断を裏で支える診断支援ツールとして使われることになるだろう。患者側も、いかに機械の診断が正しかったとしても、コンピューターから出力された病名が書かれた紙切れを渡されるのでは味気ないし、それを望む患者も少ないだろう。少なくとも当面の間は……。

 でも、これを続けていると、そのうちこんな事件が起こらないだろうか。

 救急車で運ばれてきた患者Aさん。人工知能の指示でテキパキと検査が行われ、その結果を入力すると、即座に人工知能がAさんの病名をサジェストした。それを見たベテランのX医師は「ふんっ、そんなはずはない。人工知能の診断は間違っている。正しい診断はこうだ」。そういって治療を開始したが、しばらくして容体が急変、患者は死亡した。解剖の結果、正しかったのは人工知能による診断。病院からその説明を聞いた遺族は、医師Xを提訴した――。

 これはまさに、「人間」が介在してしまったがゆえの事故と言えるだろう。全てを人工知能に任せてしまっていれば、起こらなかったはずの事故だ。

 将来、「人工知能が診断した方が、より良い治療を受けられる」というエビデンスが確立した暁には、医師が診断に多少の疑問を感じたとしても、人工知能の意見を尊重することがベストチョイスとなる。診断において、人間医師が人工知能にカブトを脱ぐ瞬間である。

 それでも問題は残る。人間医師の診断よりも頻度は低いにせよ、優れた人工知能もまれに診断ミスを起こすはずだからだ。その時の責任は誰が取るのか。人工知能が診断支援システムとして使われている間は、最終診断を下す医師の責任になるだろうが、その時点で既に人工知能が出した結論に抗えない状況だとすれば、それはそれで理不尽極まりない。

 これも、駒村先生のコラムで触れられていた「責任問題」の一形態と言えるだろう。インターネットもしかり、自動運転もしかり、大きな技術革新が起こるときには、それに合わせて制度や法律も一緒に整備される必要がある。技術革新によって、責任問題をはじめとする制度上のひずみが次々と露呈するからだ。責任問題など、制度のひずみが生じたからと言って、そこで思考を停止してしまうのは愚の骨頂である。

 人工知能の技術が医療(診断)に導入される時も同様であろう。「診断」という医師のみに許されてきた医行為を他者に明け渡すことの抵抗感は強かろうが、その選択をした方が、より適切な医療が実現されて医療費節減の効果も期待できるし、診断に費やしてきた医師のリソースを他に回すことで医師不足を解消できる可能性もある。

 法律や制度でガッチリと固められた医療業界だけに、それを大幅に組み替えるには多大なる労力が必要だが、最新技術の恩恵を最大限に享受するためには、今後IT技術者と行政、医療者が手を取り合い、知恵を絞っていくべきだろう。そうでないと、人工知能技術が進化し、世の中に自動運転車があふれるようになったころになっても、病院や診療所で人間医師がシコシコと人力で診断している、なんてことになりかねない。

 ……いや、医療たるもの、あえてその道を選択すべきなのだろうか。

この記事は日経メディカルに2016年7月25日に掲載された記事を一部改編して転載したものです。内容は掲載時点での情報です。