各国のAI規制動向と欧州連合AI規制案について

EU、米国、中国のAI規制動向および欧州連合のAI規制案について解説します。

EU、米国、中国のAI規制動向および欧州連合のAI規制案について解説します。

2016年以降、欧州連合(EU)、米国、中国がAIに関わる戦略案と指針を公表しています。特にEUでは、AI、ビッグデータ規制の整備を進めており、2017年から2022の間にさまざまな指針、宣言、規制案が作成されました。一方、米国では2019年ごろからAI政策の整備に積極的に取り組み始め、AIに関するさまざまなルール、マニュアルが次々と公表されています。中国も動きを加速しており、国レベルのものだけではなく、地方自治体レベルのAI規制案も公表されています。

EUのAI規制動向

EUは、2016年4月に開催されたロボット・AIの法的倫理的問題にまつわる公聴会のフォローアップ文書として2017年欧州議会・法務委員会が公表した「報告書:ロボティックスにかかる民法規則に関する欧州委員会への提言」のなかで、ロボット・AIと民事責任について明確な言及がなされました。その後、2018年3月に欧州委員会科学技術倫理グループ(EGE)が「AI・ロボティクス・自律システムに関する宣言」が公表され、同年4月にEUはAI戦略「欧州のAI」が公表されました。2019年4月に、EUが設立したAIハイレベル専門家グループ(HLEG)は「信頼できるAIのための倫理ガイドライン」を公表し、2020年7月にテストのフィードバックに基づき当ガイドラインのアセスメントリストの改訂版を公表しました。それと同時に、EUは2020年2月に「AI白書:卓越性と信頼に向けた欧州アプローチ」と「欧州データ戦略」を公表し、欧州を「安全に利用できるAIの世界的リーダーを目指す」目標を掲げました。「AI白書」のなかでは、AIがもたらすリスクについて「基本的人権に対するリスク」と「製品安全性と製造物責任に関連したリスク」があると指摘されています。その後の2021年4月に、「AI白書」のフォローアップ文書として「欧州連合AI規制法案」1が公表されました。

図1 EUのAI倫理規制動向年表

各国のAI規制動向と欧州連合AI規制案について-1

「欧州連合AI規制法案」はAI全般の活用を対象とした世界初の法律であると見られており、2024年にも全面施行する予定です。当法案はAIのリスクと活用規制に対して詳細に記述しており、世界各国にも影響を与えています。

米国のAI規制動向

米国は2016年10月に報告書「人工知能の未来に備えて」を公表し、AIに関連する政策を提言するとともに、「米国人工知能研究開発戦略」を策定しました。12月には報告書「人工知能・自動化と経済」が公表され、AIが経済・雇用にもたらす影響について述べられました。

その後、AIに関する関心度がさらに高まり、2018年5月に「2018年米国の産業のための大統領人工知能サミット要約書」2が公表され、そのなかで、人工知能に関する特別委員会が設置されました。2019年2月に大統領令「AI分野における米国の主導権維持」が制定され、連邦政府の各省庁がAI技術開発に対して優先的に投資を拡充していることからも、米国政府のAIに対する積極的な姿勢が見てとれます。2022年10月には、米国ホワイトハウスの科学技術政策局(OSTP)が、AIの開発などに当たり考慮すべき原則をまとめた「AI権利章典のための草案」3(以下「草案」と記す)を公表しました。「草案」は、AIを用いた自動化システムを設計、使用、配備する際に考慮すべき5つの原則を示しており、次のようなことが述べられています。

図2 「AI権利章典のための草案」におけるシステム設計の原則

各国のAI規制動向と欧州連合AI規制案について-2
  1. 安全で効果的なシステム:システムは多様なコミュニティーや利害関係者、専門家と協議のうえ、開発する。システムを配備する前に試験を行い、リスクを特定・軽減し、システムの監視を行う。これらの保護措置の結果として、システムの配備中止や削除もあり得る。
  2. アルゴリズムに基づく差別からの保護:システムが人種、性別、年齢などに基づいて不当な待遇をもたらすことがないよう、設計者、開発者、配備者はシステムを公平な方法で使用・設計するための継続的な措置を講じる。
  3. データ・プライバシー:個人の合理的な期待に合致し、厳密に必要なデータのみを収集する。システムの設計者、開発者、配備者は個人からの許可を取得し、データの収集、使用、アクセス、移転、削除に関する個人の決定を尊重する。個人の同意を求める際は、簡潔で、平易な言葉で理解できる内容にする。健康や仕事などに関わる機微なデータについては、より強い保護措置を講じる。
  4. 通知と説明:システムの設計者、開発者、配備者は、システム全体の機能と自動化が果たす役割、そのようなシステムが使用されていることの通知、システムに責任を持つ個人・組織などを明確に説明する文書を広く一般に提供する。これらの情報は最新の状態に保ち、重要な使用例や主要機能の変更についてはシステムの影響を受ける人々に通知する。
  5. 人間による代替、考慮、予備的措置:システムから影響を受ける個人が必要に応じてオプトアウトし、人間による代替手段を選ぶことができるようにする。システムの失敗やエラーが起きた場合などに、人間による考慮と予備的措置による救済を受けられるようにする。

この「草案」では、システム、データ・プライバシーのような従来議論されてきた課題だけではなく、アルゴリズムによるバイアス問題も大きく取り上げています。実際、「草案」が公表される前の同年5月に、米国雇用機会均等委員会(EEO)が既に、ソフトウエア・アルゴリズム・AIによって障害を持つ求職者と社員の仕事能力を評価する際に注意すべきことをマニュアルとして公表しており4、AIのバイアス問題を実務レベルから解決策を出そうとする積極的な姿勢が見られています。EUと比べると、米国政府は、規制とガイダンス両方から積極的に取り掛かっている傾向が見られています。

EUのAI規制は、「欧州連合AI規制法案」の内容から見ると、強い法律規制、いわゆるハードローの傾向が見られますが、米国は現行法への適用を基本としつつ、規制当局が経験的にソフトローでは不十分であると判断した場合にハードローに目を向けるという、ソフトローとハードローをミックスして統制する立場を取っています。

図3 米国のAI倫理規制動向年表

各国のAI規制動向と欧州連合AI規制案について-3

中国のAI規制動向

中国は現在AI領域では米国と並んで世界を牽引している存在と言われています。経済産業省が2021年3月に公表した「内外一体の経済成長戦略構築にかかる国際経済調査事業報告書(AIのガバナンスに関する動向調査)」5によれば、中国のAI研究開発と利活用のレベルは米国の次に位置付けられ、AIの論文数は世界第1位、AIの関連特許出願数、企業数、グローバル人材人数、スタートアップ企業数はいずれも世界第2位となっています。そのなかで、政府はAIの発展に注目するのと同時に、AIの倫理問題についても関心を高めています。2022年11月に、スイス・ジュネーブの特定通常兵器使用禁止制限条約(CCW) 締約国会議において、中国の李松軍縮事務大使が「AI(人工知能)倫理ガバナンスの強化に関する中国の立場文書」6(以下「立場文書」と記す)を提出しました。「立場文書」のなかでは、倫理先行のAIガバナンス、偏見と差別の低減、宣伝教育強化による責任あるAIの使用の提唱、国際的なAIガバナンスの枠組みおよび規格の形成促進といった、中国政府のAI倫理についての立場が述べられています。

中国のAI倫理規制に関する動きは2017年の7月公表した「次世代人工知能発展計画」に遡れます。このなかでは、AI技術を発展させるための法律・法規と倫理規範が、中国においてAI戦略の重要な「保障措置」という表現がされています。それ以降、中国におけるAIの倫理研究が盛んになり、2019年国家次世代AIガバナンス専門委員会が設立され、同年6月に同委員会は「次世代人工知能ガバナンス原則――責任ある人工知能の発展」を公表しました。そのなかでは、責任ある人工知能の発展というテーマをめぐり、調和・友好、公平・公正、包摂・共有、プライバシー保護、セキュリティコントロール、共同責任、開放・協力、俊敏なガバナンスの8項目が記されています。さらに、2022年3月に、中国政府はレコメンドAIに関する規制7を公表し、レコメンデーションアルゴリズムサービスのプロバイダーの責任要件を明確に規定しました。同年12月に、画像生成AIに「AI生成マークの表示」の義務化とAIユーザの実名登録制の規制8が公表され、政府がAIの使用に関わる倫理問題に対して強く規制する姿勢が見られます。

そのほかに、2022年9月に中国初の地方自治体レベルのAI規制「AI産業の発展促進に関する上海市条例」が公表されましたが、今後中国におけるAI倫理規制の動きはさらに活発になる見込みです。

図4 中国のAI倫理規制動向年表

各国のAI規制動向と欧州連合AI規制案について-4

EU、米国、中国のAI規制の動向を見てきましたが、特に2024年に施行される予定の「欧州連合AI規制法案」については、日本の企業にも対応が必要となると考えられます。従って、次は「欧州連合AI規制法案」について具体的に解説します。

2021年4月21日、欧州委員会が「人工知能に関する整合的規制(人工知能法)の制定および関係法令の改正に関する欧州議会および理事会の規則提案」(以下、「規制法案」と記す)を公表しました。「規制法案」を公表した目的は、AIは産業および社会活動全般にわたり経済的かつ社会的利益をもたらす一方、その急速な進化に伴い、個人や社会に新たなリスクや負の影響をもたらす可能性があるなかで、AI技術の変化の速さにいかに対応できるか、バランスの取れたアプローチをEU全体として提示することです。

「規制法案」の目的は、以下の4点があると示されています。

(1) EU市場で流通するAIシステムが既存の法律に遵守していることを確保すること
(2)AIシステムのガバナンス、基本権利、安全性に関する既存法律の効果を強化すること
(3)AIへの投資およびイノベーションを促進するために安定な法律環境を作ること
(4) EU加盟国との間に統一ルールに従うAIアプリケーション流通市場を作ること

「規制法案」では、規制適用区域と対象範囲、規制対象アプローチ、規制するAIの種類、違反した場合の罰則、そしてプロバイダーの義務と責任について述べています。

規制適用区域と対象範囲については、次の3つの条件が示されています。

(1) 設立先がEU域内であるかどうかとは関係なく、EU域内においてAIシステムとサービスを提供する者
(2)EU域内に所在するAIシステム利用者
(3) AIシステムのアウトプットがEU域内で利用されている、第三国にいる当該システムの提供者と利用者

つまり、もし日本がEUの各国にシステムを提供しているのであれば、この規制法案は日本にも適用されます。

図5 「欧州連合AI規制法案」の規制適用区域

各国のAI規制動向と欧州連合AI規制案について-5

規制対象となるAIシステムは以下の3つに分類されます。統計的アプローチが採用されているだけで、規制の対象になる可能性があり、AIシステムの提供者・利用者ともに適用の範囲はかなり広いことに注意しなければなりません。

(1)ディープランニングを含む教師あり、教師なし、強化学習手法の機械学習アプローチ
(2)知識表現、帰納プログラミング、知識ベース、推論および演繹エンジン、記号推論およびエキスパートシステムを含む論理ベース、知識ベースのアプローチ
(3)統計的アプローチ、ベイズ推定、検索および最適化手法

また、「規制法案」ではAIシステムのリスクについて、以下の4つに分類されます。提供・利用するAIが下記のいずれかに当てはまるか慎重に判断し、リスクに対応した規制対応が必要となります。特に高リスクAIに関しては規制案上対応しなければならない項目が多岐にわたっています。

(1)利用禁止AI:サブリミナル、弱者脆弱性につけ込むAI、公的機関によるスコアリング、法執行目的での公共場所におけるリアルタイム遠隔生体識別の4つが示されています。
(2)高リスクAI:規制法案の付属書に書かれた、飛行機や自動車、船舶、鉄道、医療システムのような自立型システムを中心とするAIシステムが含まれます。
(3) 限定的リスクAI:チャットボットのような自然人と相互作用するAI、ディープフェイクのような本物とよく似たコンテンツを自動生成するAIが含まれます。
(4)極小リスク・リスクなしAI:迷惑メールの自動分類、ゲームの利用などが含まれます。

さらに上記の条件で規制に違反した場合、次のような罰則が課される可能性があることからも慎重な対応が必要であると考えられます。

(1)利用禁止AIの実務禁止を不遵守、もしくはデータガバナンス要件を不遵守した場合:3,000万ユーロ以下の罰金、もしくは前会計年度の世界全体売上総額の6%のどちらか高い金額を支払う
(2)(1)を除いた規則もしくは要件を不遵守した場合:2,000万ユーロ以下の罰金、もしくは前会計年度の世界全体売上総額の4%のどちらか高い金額を支払う
(3)要請に対して、第三者認証機関もしくは加盟国所管機関に、不正確な、不完全なまたは誤解を招くような情報を提供した場合、1,000万ユーロ以下の罰金、前会計年度の世界全体売上総額の2%のどちらか高い金額を支払う

図表6 「欧州連合AI規制法案」のAI分類と罰金の種類

各国のAI規制動向と欧州連合AI規制案について-6

高リスクAIの業務内容は、EU各国にAIシステムを提供しようとする日本企業にとっても大きく関連性があるため、次回で詳しく解説します。

あずさ監査法人では、上記のようなAIを取り巻く社会環境も踏まえたうえで、「AIが目的に沿ったパフォーマンスになっているか」だけでなく「公平性」、「説明可能性」、「追跡可能性」等の観点も含め、AIの適切性を、第三者の立場から評価・検証するサービスを提供します。

お問合せ