Press Release Working Group

倫理ワーキンググループ成果物の一般公開について

一般社団法人AIビジネス推進コンソーシアム、AI×倫理WG(代表理事兼ワーキンググループ長:曽我部完)はAI倫理を企業に導入する上での注意点について考察した文書「企業活動にAI倫理を導入していく上での注意点と提言〜リスクベース・アプローチを踏まえた検討〜」を一般公開致します。

【AI×倫理WG】
AIの提供や活用をする立場として、企業としてのAI倫理に対する考え方やスタンスを明確にした上で、実際に自社へ導入する仕組み作りのため2019年6月にAIBPCのワーキンググループとして承認・設置されました。

ビジネス上でのAI開発や活用において発生し得る倫理課題に対して、各企業が何を取り組むべきかを整理し、AI開発におけるアカウンタビリティの確立と、
企業がAI開発をガバナンスする為の仕組みの構築を目指して、ユーザー企業・開発ベンダー企業などから、AI 開発者、ビジネスパーソン、弁護士、弁理士など、様々な業種、立場のメンバーが所属し、議論を行います。

【成果物】

【概要】

現在、社会の多くでAI製品・サービスが提供され、その提供・利用範囲は年々広がっています。AI開発・利活用における基本理念についての議論は数年前より国内外で行われ、日本においても「人間中心のAI社会原則」が行政・公的機関・大学により取りまとめられました。そうした原則の整備から、現在ではその原則を具体的にどのように社会実装していくかという議論に移りつつあり、経済産業省のみならず、国内企業においても独自のガイドラインを発表する企業が相次ぎ、AI開発・提供をする企業による具体的指針を策定する必要性の認識が高まっています。
一方で、企業の実務において原則をどのように運用するかについては、AI技術が活用される様々な産業分野や適応範囲の広さ、企業の事業領域、事業遂行上のリスクの内容や度合いによって考慮すべき点は異なるため、画一的な方法がありません。また開発後の社会や市場環境の変化に伴うリスクの変容とそれに伴う多くのステークホルダーへのアカウンタビリティを維持することは容易ではありません。AI倫理ワーキンググループは、2019年6月に発足して以来、各企業がAI倫理に関わる自主的な取り組みを行う上で、どのようなリスクを考慮して開発、提供するべきかに焦点を置き、自社内でのAI倫理導入を容易にするための議論をおこなって参りました。
今回発表した成果物は、リスクチェーンモデル※1の活用を提唱している東京大学未来ビジョン研究センター・江間有沙准教授、松本敬史客員研究員の協力をもとに、企業がAI倫理を導入する上でのリスクの洗い出し方、対策の考え方を具体的なユースケースをもとに分析、検討、整理し、今後AI倫理を導入しようとする企業に向けて提言としてまとめたものです。

3つの提言のまとめ
1.自社のAI倫理に対するポリシーを設定すべき
昨今、持続的な社会実現のためにESGに基づく経営強化が多くの企業で進んでおり、企業における社会的責任が強く求められている中AI倫理もこうした流れの中に組み込まれていくことが想定されます。そうした企業や社会の流れを受けて、まずはAI倫理に対する自社のポリシーを構築するべきであることを提言しています。

2.AIにより生み出す価値とリスクの両面を見える化すべき
企業がAIを活用する目的は、新たな事業価値を生み出すことにあります。そこでは、提供したい価値とリスクの両面を見える化させた上で、設定した自社のAI倫理ポリシーに沿って判断することが重要です。WGでは、こうした見える化に対してリスクチェーンモデルの活用が非常に有効であることを実際のユースケースを用いて示しています。

3.外部のステークホルダーとの共通認識を作るべき
AI製品・サービスによる受益者が広範囲に及ぶため、AI倫理においては、複数のステークホルダーとの共通した対応が不可欠です。リスクチェーンモデルによって見える化されたリスク及び価値について、自社と外部のステークホルダーとの共通認識を作り、連携してAI倫理に取り組むことが重要であると考えています。

本報告書が企業活動におけるAI倫理の具体的な取り組みの促進に向けて参考となることを期待し、AIビジネス推進コンソーシアムは今後も社会におけるAI活用の促進によって、企業の繁栄と人々の豊かな暮らしの実現に貢献して参ります。

※1
AI技術・サービス提供者が自らのAIサービスに関するリスクアセスメントを実施し、リスク要因の関連性を可視化することで多面的に存在するリスクを段階的に低減化するための分析モデル

東京大学未来ビジョン研究センター 江間 有沙 准教授、松本 敬史 客員研究員よりコメント

東京大学未来ビジョン研究センターでは、AI原則を実践に導くためのアプローチ(Principle to Practice)として「リスクチェーンモデル」を開発し、様々なケース検討を実施しております。
今回AIビジネス推進コンソーシアム様との検討により、具体的なケースに根差したリスクコントロールの検討を行い、マルチステークホルダー間で合意形成することの重要性を改めて学ぶことができました。
今後AIサービスやシステムの倫理や安全性の事例を多く収集すると同時に、逆にAI原則をアップデートしていくことも重要になります。本活動のような検討が多く実施され、AIを信頼できる社会づくりに向けた実践的な議論が進んでいくことを期待します。

東京大学未来ビジョン研究センター 江間 有沙 准教授、松本 敬史 客員研究員

<成果物 及び ワーキンググループ全般に関するお問い合わせ先>
〒107-0061 東京都港区北青山3丁目11番7号 AOビル6階(株式会社グリッド内)
一般社団法人AIビジネス推進コンソーシアム事務局 担当宛
電子メール:info@aibpc.org