スマートフォンや電気自動車に広く使われているリチウムイオン電池の材料であるコバルトは、コンゴ民主共和国産が約5割を占める。同国では児童労働や強制労働が常態化している。だが、児童労働の現状に目をつむって原材料を調達していると、責任を問われる時代になっている。実際、アップルやテスラなど5社は2019年、コンゴ民主共和国での児童労働を助長しているとして、人権団体によって訴訟を起こされた。「人権リスク」の範囲が広がる中で企業は何に注意を払うべきなのか。企業の人権対応に詳しいオウルズコンサルティンググループ代表羽生田慶介氏の著書『すべての企業人のためのビジネスと人権入門』から一部抜粋して紹介します。その第3回。

(第1回から読む)
(第2回から読む)

広がる「人権リスク」の範囲

 2020年ごろまで「人権」と聞いて多くの経営者やビジネスリーダーが想起したのは部落差別(同和問題)のことだった。「労働者の人権」と置き換えれば、セクシュアル・ハラスメント(セクハラ)やパワー・ハラスメント(パワハラ)、長時間労働も挙がっただろう。

 しかし、昨今のニュースで飛び交う「ビジネスと人権」が指す領域は、従来とは全く違うものになっている。企業が守るべき「人権」の範囲や定義は日々変化し、広がり続けている。この変化に気づかず、昔の感覚のままで「我が社は関係ない」と思っていたら痛い目に遭うことになる。

 下図に、企業が留意すべき主要な人権リスクの一覧を示した。特に、人権リスクを「同和問題」「セクハラ・パワハラ」と理解している人には、自社の状況に照らして当てはまるものがないか、チェックしてほしい。

[画像のクリックで拡大表示]

AIが生み出した差別問題

 ひとつひとつの人権リスクを見ても、その性質・ボーダーラインが広がりつつある。例えば、差別問題であれば、以前は人種や性別などによる雇用条件の差別がないか人事部が気を付ければ済んだかもしれない。しかし現在、差別問題に対応すべき部署は、広報・マーケティング部や製品開発部など多岐にわたる。レピュテーションリスクが高い典型的な事案は、差別的な広告表現だ。一昔前は外国人を模した仮装などが広告やテレビによく登場していたが、今や「炎上」の対象だ。

 また、製品開発プロセスでも差別防止の観点での確認が重要だ。例えば、AI開発事業においては、AIが差別的な解を生むようにプログラムされていないか気を付ける必要がある。

 2018年、米アマゾンは、自社が開発したAI採用システムに女性を差別する傾向があるとして運用を取りやめたと報道された。機械学習のアルゴリズムが古い価値観に基づいた過去のデータを読み込んでいたため、差別的な答えを出すようになっていた。AIに限らず新しい製品やサービスを世に出す際は、人種や性別、宗教など様々な観点で差別的でないかを確認する「目」が必要となる。

 近年このように「新しい人権」問題が次々と現れてきている。その背景のひとつは、新たな技術やサービスの登場・進化であり、AIの差別問題のように、今までにない人権侵害のパターンが出現している。では、新技術などを扱っていない企業なら安心してよいだろうか。答えは否だ。業種を問わず、すべての企業が注意を払うべきなのは、「去年は許された目新しくもない行動が、今年はもう許されなくなっている」ことだ。

次ページ 人権侵害か否かを決めるのは法律だけではない