PwC Japanグループではこのたび、AIと人権を取り巻く環境を整理しつつ、人権マネジメント担当者が取り組むべき論点をまとめ、公開しました。
AIによる人権への負の影響は、ここ数年で注目が高まっている新たな人権リスクであり、人権マネジメントに際しAIのリスクを取り扱うことが要求されるのも、そう遠くない未来だと考えられます。
生成AIなど、AIはデータを学習し、その結果に基づいて将来予測や関係性の記述を行います。この予測や記述のモデル化を行う際、データの偏りや学習ロジックに誤りがあると、差別的な結果が生み出されることがあります。特に人権リスクの発生に非常に大きな影響を与えるのが、データバイアスです。
本調査レポートでは、AIによる差別が発生する具体的なケースを記載しつつ、AIによる人権侵害のリスクはどの企業も例外ではないこと、企業の人権マネジメントの担当者がどのようにAIによる人権侵害リスクに向き合うべきかを解説しています。
<コンテンツ>
・AIの利用が進み、人権への影響が問題視され始めている
AIの誤った利用が、重大な結果につながることもある
企業もAIの利用を誤り、人権を侵害するおそれがある
・AIの責任ある利用に対する圧力が高まりつつある
OECD原則とEU包括規制、そして日本のAI原則
迫りくる投資家要求
・AIによる人権侵害のリスクは、どの企業も例外ではない
AIによる差別はどのように発生するのか
与信における社会的バイアス:何が「公平な区別」で何が「差別」か
・人権マネジメントに「AIの利用によって人権を侵害するリスク」を組み込む
人権マネジメントでAIをどう取り扱うか
本レポート詳細につきましては、以下URLよりご覧ください。
https://www.pwc.com/jp/ja/knowledge/thoughtleadership/ai-and-human-rights-risks.html