AI(人工知能)で倫理上の問題を起こさないための取り組みが実践段階に入ってきた。一部の企業が先駆けて導入するが、実効性を高めるには産業界全体で動きを加速させるべきだ。
日立製作所は2021年2月、AIを開発・応用する際に守るべき社内向けの指針「AI倫理原則」を定めた。「損得より善悪」。創業者・小平浪平氏が掲げていたこの理念の下でAIを活用していくと宣言した。
「公平性実現」「透明性・説明責任重視」といった7つの着眼点について、それぞれ5~6個のチェック項目を作成。AIの開発や応用で避けるべきことを明確にし、製品の開発過程で起こる倫理上のリスクを抑制する狙いだ。現在はAI活用を推進する中核部門で試験的に運用しており、徐々に社内の開発部門全体に広げていく。
この原則の策定や啓発に携わる同社の吉田順AIビジネス推進部長は、「もはやAIは専門家だけのものではない。社内のあらゆる製品の開発部門に倫理の原則を広めていかなくてはならない」と狙いを話す。
この記事は会員登録で続きをご覧いただけます
残り1252文字 / 全文1684文字
-
「おすすめ」月額プランは初月無料
今すぐ会員登録(無料・有料) -
会員の方はこちら
ログイン
日経ビジネス電子版有料会員なら
人気コラム、特集…すべての記事が読み放題
ウェビナー日経ビジネスLIVEにも参加し放題
バックナンバー11年分が読み放題
この記事はシリーズ「ニュースを突く」に収容されています。WATCHすると、トップページやマイページで新たな記事の配信が確認できるほか、スマートフォン向けアプリでも記事更新の通知を受け取ることができます。
Powered by リゾーム?