しかし、これは裏を返せば、開発者がAIの判断を検証することが難しいということでもある。翻訳向けに深層学習AIを開発しているある技術者は「変な訳が出てきても、なぜそうなったのかがわからない。微調整ができないのが最大の課題だ」と語る。

 実際、今の深層学習AIの導入事例を見渡してみても、間違えを出しても説明責任を求められない課題ばかりだ。そうなると、例えばセキュリティーの課題に導入するのはハードルがある。

深層学習はブラックボックス

 例えば、深層学習AIを積んだ手荷物チェック用のX線検査機を開発した日立製作所も、用途は旧来得意としていた空港向けではなく、チェック効率がより重視されるイベント向けだという。また、このAIは危険な手荷物に対して警告を鳴らす仕組みではない。「絶対安全」と判断できるものにだけOKを出し、ちょっとでも不審な点があれば、検査員にチェックを促す。検査の効率は40%ほど向上するが、安全を追及するためにはヒトが最終関門を担わなければいけない。

 警備用カメラをチェックして自動で不審者を捜し出すAIの実用化に挑んでいるセコムは、よりはっきり深層学習への懸念を示している。セコムIS研究所の目崎祐史所長は「深層学習にすべて任せると、ブラックボックスになってしまう」と語る。

 深層学習も利用はしている。しかし、画像からヒトの顔の部分を抜き出すなど、一般的に用いられていて信頼性が確立された課題のみに使う。つまり、深層学習AIは不審者を割り出すための判断材料を映像から抜き出すためのパーツに過ぎない。その材料からどう正解を導くかの判断プロセスは、ベテラン警備員の経験知をコンピューター言語にすることでAIに組み込んでいる。敢えて旧来型の手法でAIの判断プロセスを構築しているのだ。

 また、深層学習だけに頼れば、AIの成長に使うデータ量の競争に陥りがちだ。多くのデータ量を読み込むほど深層学習AIは賢くなるからだ。しかし、データの扱いを一つ誤ると、ICカードのデータを外部提供して批判を浴びたJR東日本のように、手痛いしっぺ返しをくらう。

 セコムの場合、AIの成長に使うデータは、エキストラが不審者のふりなどをする映像だけだ。実際の監視カメラの映像は含まれていない。国内では監視カメラ映像のような機微な情報を集めるのが難しい以上、ヒトが判断プロセスを書き込む旧来の方式と深層学習をハイブリッドで使う方法は有用だと記者は考える。

 もちろん深層学習そのものは非常に有効な技術だ。先に挙げた弱点を補い、深層学習AIを進化させようという研究も盛んだ。

 富士通やNECが開発しているのが「ホワイトボックス化」と呼ばれる技術。深層学習AIの判断材料や判断プロセスを解析して可視化しようという試みだ。

 もう一つが「GAN(ガン=敵対的生成ネットワーク)」。2つのAIを競い合わせることで成長させる技術だ。片方のAIは、相手のAIがいかにも間違えそうな「意地悪問題」を出して成長を促す。AIがAIを成長させるためのデータを自動で生成するので、データ量を追い求める競争から脱却できる可能性を秘めている。