近年、AIが普及しさまざまなサービスや製品に取り込まれて、社会に浸透していることを背景に、組織において「AI倫理」を策定し、公表する動きが世界的に加速しています。では、いったいなぜ、「AI倫理」が必要とされるようになったのでしょうか。それは、社会で浸透するAIが人間に利益をもたらす一方で、期待しない振る舞いをする事例が発生するようになったためです。
本記事では、AI倫理が問題となった事例、AI倫理に含まれる項目と実践するためのガイドライン、AIに関する法規制などについて解説します。
AI倫理とは
「AI倫理」とは、AIに関する倫理ですが、そもそも「倫理」とは、人間として行わなければならない正しい道・社会的に守るべき規律といった意味があります。つまり、AIの振る舞いが社会的な規律を乱すようなことは回避すべきという考え方のもとに打ち出された方針が「AI倫理」です。一義的な定義は存在しませんが、本記事では、「組織において、AIを取り扱うにあたって、社会的に守るべきとされる行動指針や規範」とします。呼び方は、「指針」、「ガイドライン」や「原則」など、国・地域・組織によってさまざまです。
次章から実際にAI倫理が策定され、それを実践していくためのガイドラインの整備状況について、歴史的な流れに沿ってみていきたいと思います。
AIの活用において問題が発生した事例
AIは、さまざまなサービスや製品に取り込まれ、社会的な浸透が進んでいます。特に生成AIの登場を契機として、私たちの生活を取り巻くさまざまな場面で当たり前のように使われる技術となりつつあります。例えば、企業内における典型的な利用方法としては、業務の効率化・高度化を図るため、社内問い合わせ業務やコンタクトセンター、システム開発におけるプログラミングなどでの活用が見られます。また、業界特化の利用方法としては、金融分野では、融資の与信や不正取引の検知業務、ヘルスケア分野では疾病リスク予測などでの活用があげられます。
このようにAIの活用が進む一方で、以下のような事例が発生し、社会的に問題視されました。
- IT会社の従業員が、企業の秘密情報であるソースコードを生成AIに入力した結果、生成AIベンダのサーバへ送信され情報漏えいを起こした。
- AIを利用したカード審査の審査過程において公平性に疑義が生じた。当局調査により差別的な審査であるとの証拠は見つからなかったものの、審査の透明性や説明責任を果たせなかったことにより、問題となった。
- 鉄道会社が自社において保有する利用履歴のデータを、個人を特定できない加工を施した上で、データ分析を行う他社に提供した。個人情報ではないものの、鉄道利用者への事前周知、手続き上の問題があったとして批判を浴びた。
- AIを利用した医療ニーズの判定において、黒人よりも白人の方が優遇されるという人種差別とみなされるような結果が示された。このAIの学習データには、「人種」という項目はなかったが、「医療費(黒人の医療費の方が少ない)」が項目として含まれていた。結果として、社会的な医療の不平等がAIのアルゴリズムに反映され、さらにその不平等が助長される事態を引き起こしてしまった。
出所:各種メディアで公表された事例を基に大和総研作成
これらの事例には、厳密には違法とまでは言えないものも含まれていますが、倫理的な観点から、批判を受けました。事業を営む企業では、レピュテーションに影響を与え、最悪のケースでは、サービスの停止に追い込まれることさえあります。したがって、法令遵守は当然のこととして、倫理面も考慮したAIの開発と活用が求められているのです。
AI倫理の策定状況とAI倫理に含まれる項目
AI倫理の策定状況
上記のような事例を受け、2017年以降、世界各国の政府、民間企業、業界団体を含む各組織において、AI倫理の策定が進みました(表)。日本では、世界的に見ても比較的早い時期から、政府によるAIの取扱いに関する検討が進められ、また民間企業でも相次ぎ、AI倫理が公表されました。

AI倫理に含まれる項目
公開された多くの「AI倫理」に共通して以下の原則が含まれます。
- 人間中心:人間の尊厳や個人の自律を尊重する。人間の判断を介在させる。
- 透明性:AIの学習プロセス、推論過程、判断根拠などを記録し、保存する。
- 説明責任:トレーサビリティを確保する。各ステークホルダーへ情報提供を行う。
- 公平性:データやAIモデルに内包されるバイアスを排除するよう努める。
- 安全性:人間の生命・身体・財産や環境へ配慮する。
- プライバシー保護:プライバシーを尊重する。個人情報保護に関する各国法に基づいた対応を行う。
- セキュリティ:AIシステムの機密性・完全性・可用性を維持する。最新動向を踏まえた技術対策を講じる。
- ガバナンス: AIを適切に管理・監視するための、組織的・技術的取組みを行う。
このような原則は、組織によって表現や定義が少しずつ異なりますが、おおむね世界的な共通認識であり、どの組織が公表するAI倫理も大きく変わるものではありません。一方で、どのような原則をどのような表現で組み合わせるかは、組織の所属する領域・重視する理念・価値・ビジョンなどにより異なってくるものです。
このように組織のAIに対する姿勢や決意が織り込まれたAI倫理ですが、策定後は、この抽象的な原則をどのように実践するかが課題となります。AIの開発や活用がAI倫理に沿ったものであるかを審査する委員会の設置や、組織におけるAI開発・活用のガイドライン(チェックリスト含む)を準備する組織もあります。加えて、動画研修などを通じた人材育成に取り組むケースもあります。
AI倫理実践のためのガイドライン
日本においては、2024年4月に総務省・経済産業省が公表した「AI事業者ガイドライン」が参考になるでしょう。本ガイドラインは、内閣府が策定した「人間中心のAI社会原則」を土台に、個別に策定された「AI開発ガイドラン」・「AI利活用ガイドラン」(総務省)、「AI原則実践のためのガバナンス・ガイドライン」(経済産業省)の三つのガイドラインを統合・見直しし、さらに国内外の動向や新技術を考慮して新たに策定されました。基本理念および取組みの指針が記載されている本編と、各指針の実現に伴う具体的なアプローチが記されている別添およびその他参考資料という構成になっています。AI倫理の具体的な実践という観点からは、特に「チェックリスト」や「ワークシート」を活用するとよいでしょう(図1)。本ガイドラインの利用にあたっては、自社の立場(AI開発者/AI提供者/AI利用者)や、取り扱うAIの種類など、適切な箇所を自らが取捨選択して、実践に落とし込むことが肝要です。また、「実践に落とし込む」際の重要な前提としては、リスクベースアプローチの考え方が示されています。すなわち、過度な対策はAIによって得られる利便性を損なう可能性があるため、企業においては、AIによって引き起こされるリスクの性質や蓋然性の高さに応じて対策の程度を決定することが求められています。

AIに関する法規制
上記の「AI倫理」や「AI事業者ガイドライン」は、法的拘束力のないソフトローに該当します。一方でAIに対して法律で規制する、ハードローの考え方も存在します。AIに関する法規制について、EU、アメリカおよび日本の動向を紹介します。
EU
EUでは、2024年5月に世界初の包括的なAI Actが成立し、AIの分類に応じて2025年2月より段階的に適用が始まります。AI Actは、リスクベースのアプローチが採用されており、「許容できないリスク」、「ハイリスク」、「限定リスク」、「最小リスク」の分類に応じて規制されます(図2)。加えて、この四つの分類とは別に、生成AIを含む汎用AIモデルについて、義務などが定められています。具体的には、汎用AIモデルの提供者には、技術文書の作成、AI学習データに関する情報公開など透明性が要求されています。また、モデル開発の際の計算量が閾値を超えるなど、より影響力を持つ汎用AIモデルに関しては、モデルの評価、リスクの特定と低減策、重大インシデントに関する当局への報告など、さらに厳格な義務を課しています。
AI Actの特徴としては、域外適用(EU内に拠点がなくてもEU圏内にAIシステムを提供する企業も規制の対象)と厳しい制裁によって世界に影響を与える点が指摘されており、日本企業でも対策が必要となります。

アメリカ
アメリカは、大手のテック企業と政府の協調でAIに関するガイドラインや規制の検討がなされています。連邦レベルで包括的に取りまとめられたものとしては、2023年10月に発出した安全性・信頼性の高いAIの開発および利用に関する大統領令があげられます。同大統領令は、EUのAI Actのように分類に応じた制限を付すものではなく、政府機関への安全性の確保に関する指示が主な内容となっています。他方、州レベルでは、個別のAI(顔認証や採用など)の利用に関して規制する地域がありますが、2024年には、コロラド州においてAIの使用を包括的に規制する州法が成立しました。同法は、雇用、金融や医療分野で差別的な取扱いを防止する目的の内容となっています。その他、大手テック企業が集まるシリコンバレーを擁するカリフォルニア州をはじめとして、2020年以降、各州において包括的なプライバシー法の成立が進んでいます。今後は、具体的な手順や基準、規制が整備される可能性もあり、進展が注目されています。
日本
日本では、EUのように直接的にAIを規制する法律はありません。新たな法律の制定には時間がかかり、AIという新技術の発展と普及に必ずしもタイムリーに追随できないことから、政府は、自主規制を重んじ、迅速・柔軟に対応可能なガイドラインをいち早く整備してきました。このようにソフトローを重視しつつも、昨今は、諸外国の動向や偽情報の拡散などのAIリスクの高まりを踏まえ、2024年に入ってからは、政府において具体的なAIに関する法規制の検討が始まっています。
一方で、既存の法律の中で、新しく台頭するAIの取扱いをどのように法解釈に含めるかの検討も行われています。例えば、2019年の改正著作権法では、一定の条件のもとAIの学習データに著作物の利用を可能とする条文(法第30条の4)が追加されました。また、生成AIの普及も相まって、2024年3月に文化庁によって「AIと著作権に関する考え方」が発表されるなど、議論が継続しています。他方、個人情報保護法との関係では、2023年に生成AIサービスの利用に関する注意喚起(OpenAI社に対する留意事項含む)や2024年3月にクラウドサービス提供事業者向け注意喚起が当局によって公表されましたが、いずれも活用が進む個人データの取扱いに関して、改めて解釈・考え方が示されたものになっています。
終わりに
倫理的なAIの開発や活用をめぐっては、世界各国の考え方に影響を受けながら、ガイドライン(ソフトロー)や法規制(ハードロー)の整備が現在進行形で行われています。グローバル企業では当然ですが、国内のみで事業を営む場合であっても、諸外国・国内の動向を注視しつつ、迅速かつ柔軟に対応できるように準備を進めていくことが求められます。またその準備では、自社の特徴を考慮して、例えば、「AI事業者ガイドライン」の第2部の主体共通に係る項目や、所属する業界団体が発表しているガイドラインを参照するなど、取捨選択・実行・見直し・改善のサイクルを回しつつ、実践に落とし込んでいくことが重要と言えるでしょう。
大和総研は、2023年にAI倫理指針を策定しました。同時に、指針に則った活動が実施されることを担保する体制構築の一環として、「AI倫理委員会」を設置しました。社内でAI倫理チェックシートを策定し、運用しているほか、全社員にAI倫理研修を行うなどの取組みを行っています。
「大和総研 AI倫理指針」の策定および「AI倫理委員会」の設置について | 株式会社大和総研のプレスリリース
大和総研、調査レポートの作成に生成AI(ChatGPT)を活用 | 株式会社大和総研のプレスリリース
関連するソリューション
大和総研では、AI・データ活用ソリューションの開発を行っています。ITソリューションサービスサイトからお問い合わせください。
AIオペレーターによるお問い合わせサービス提供開始について | 大和総研
大和総研、生成AI技術を活用し、人的資本情報開示業務をサポートする「KOSMO-ウェルビーイングナビ」を開発 | 大和総研
売買審査業務における人工知能(AI)活用の取組みについて | 大和総研