ブログ
欧州AI Actの概要
2024.05.27
はじめに
欧州連合(EU)の立法機関である欧州議会は、2024年3月13日付けの本会議で、AIシステムの開発や利用に関する規制法である、AI Actの最終案を可決しました。そして、EU理事会も、同年5月21日付けで当該最終案を承認したため、世界初の包括的なAI規制としてのAI Actが、正式に成立しました[1]。
AI Actの制定過程は、2021年4月21日付けで欧州委員会が草案を公表したことに端を発しますが、その後、2022年11月以降における、Chat GPT等の生成AIの台頭を受けて、大幅な軌道修正がなされ、当初案では明確には規制対象となっていなかった「汎用目的型AIモデル」(General-purpose AI model)についても、独自の規制が設けられる方針となりました。
本記事では、そのようなAI Actによる規制の概要について、ご説明いたします。
適用範囲
(1) 「AIシステム」の定義
AI Actは、規制対象となる「AIシステム」について、以下のとおり定義しています(Article 3 (1))。
「AIシステム」とは、様々なレベルの自律性で動作するように設計された機械ベースのシステムであって、明示的又は黙示的な目的のために、一定のインプットから、物理的又は仮想的な環境に影響を及ぼすことができるアウトプット(例えば、予測・コンテンツ・提案・決定等)を生成する手法を推測することができ、実装後に適応性を示す場合があるものを意味する。〔筆者訳〕 |
こちらの定義は、近時アップデートされたOECDによる「AIシステム」の定義を踏襲したものとなっています[2]。
(2) 「汎用目的型AIモデル」の定義
AI Actは、規制対象となる「汎用目的型AIモデル」(General-purpose AI model)について、以下のとおり定義しています(Article 3 (63))。
「汎用目的型AIモデル」とは、顕著な汎用性を示し、モデルが市場に出される態様にかかわらず、多様な独立したタスクを適切に実行する能力を持ち、様々な下流システムやアプリケーションに統合可能なAIモデルを意味し、大量のデータを用いた大規模な自己監督により学習されたAIモデルを含む。但し、市場に出される前の研究、開発、又はプロトタイピング活動のために使用されるAIモデルは除く。〔筆者訳〕 |
例えば、Chat GPTなどの生成AIの基盤モデルは、「汎用目的型AIモデル」に該当すると考えられます。
(3) 「提供者」・「利用者」
AI Actは、AIシステム等の「提供者」(Provider)、「利用者」(Deployer)、「輸入者」(Importer)及び「流通業者」(Distributor)など、様々な主体を規制対象としています。本稿では、その中で最も重要かつ基本的な「提供者」及び「利用者」に関する規律を主に取り上げます。
提供者(Provider)[3]: |
自然人、法人、公的機関、政府機関又はその他の主体であって、次のいずれかに該当する者 ① AIシステム又は汎用目的型AIモデルを開発する者 ② AIシステム又は汎用目的型AIモデルを開発させ、上市する者 ③ AIシステムを自らの名称又は商標の下で運用開始する者 |
利用者(Deployer)[4]: |
AIシステムを自らの権限の下で利用する自然人、法人、公的機関、政府機関又はその他の主体。但し、個人的で、非職業的な活動のためにAIシステムを利用する者を除く。 |
「提供者」と「利用者」の定義は上記のとおりですが、「利用者」がAIシステムに実質的な変更を加えたりした場合には、それ以降、「提供者」としての義務を負うこととなる可能性がありますので、注意が必要です(Article 25.1参照)。
(4) 地理的適用範囲
「提供者」及び「利用者」は、以下のいずれかに該当する場合に、AI Actの適用を受けます(Article 2.1)。
- EU域内において、AIシステムの上市若しくは運用開始又は汎用目的型AIモデルの上市をしている提供者(提供者の設立又は所在がEU域内か否かを問わない)
- EU域内で設立され、又は所在する、AI システムの利用者
- AIシステムによって生成されたアウトプットがEU域内で利用される場合における、EU域外の第三国に設立され、又は所在するAI システムの提供者及び利用者
そのため、日本企業がEU域内向けにAIシステムを運用するケースや、日本企業がAIシステムによって生成したアウトプットがEU域内で利用されるようなケースでは、当該日本企業に対しても、AI Actが域外適用されることになります。
規制内容
(1) リスクベースのアプローチ
AI Actは、基本的な考え方として、以下のとおり、AIシステムを4段階に分類し、リスクの程度に応じて、規制の度合いを調整する手法(リスクベースのアプローチ)を採用しています[5]。
リスクの程度 |
規制方針 |
「許容できないリスク」のAIシステム (UNACCEPTABLE RISK) |
禁止 |
「高リスク」のAIシステム (HIGH RISK) |
事前・事後の厳格な規制 |
「限定リスク」のAIシステム (LIMITED RISK) |
透明性の義務 |
「最小リスク」のAIシステム (MINIMAL RISK) |
特段の規制なし |
また、2022年11月以降における、Chat GPT等の生成AIの台頭を受けて、当初案では明確には規制対象となっていなかった「汎用目的型AIモデル」(General-purpose AI model)についても、これらとは別に、独自の規制が設けられる方針となりました。
以下では、それぞれについて、規制の概要をご説明いたします。
(2) 「許容できないリスク」のAIシステム
以下に挙げるようなAIシステムを上市若しくは運用開始し、又は利用する行為は、「Prohibited AI Practices」として禁止されます[6](Article 5.1)。
- サブリミナル技術や操作的・欺瞞的な技術を用いて人の行動を歪め、人が通常は行わないような、重大な損害をもたらす決定を行わせるAIシステム(Article 5.1(a))
- 年齢、障害又は社会的・経済的な苦境に起因する自然人の脆弱性を悪用し、重大な損害をもたらすような態様で人の行動を変容させる AIシステム(Article 5.1(b))
- 自然人の社会的行動や人格を用いてソーシャルスコアリングを行うものであって、人に対して次の①又は②の不利益な取扱いをもたらすAI システム(Article 5.1(c))
①スコアリングの元データが収集された文脈と無関係な文脈での不利益な取扱い
②不当若しくは過度に不利益な取扱い
- 自然人のプロファイリング情報等のみに基づいて、その者の犯罪リスクを評価・予測するAIシステム(Article 5.1(d))
- インターネット又は監視カメラから無作為にスクレイピングした顔画像を用いて、顔認識データベースを作成するAIシステム(Article 5.1(e))
- 職場や教育機関において自然人の感情を推測するためのAIシステム(Article 5.1(f))
- 自然人をその生体データに基づいて分類し、その者の人種、政治的意見、労働組合への加入状況、宗教的又は哲学的信念、性生活、性的指向を推測するための生体測定分類システム(Article 5.1(g))
- 公共空間において法執行を目的として利用する場合における、リアルタイムでの遠隔生体識別のためのAIシステム[7](Article 5.1(h))
(3) 「高リスク」のAIシステム
(ア) 定義
以下のいずれかに該当する場合、「高リスク」のAIシステムと評価されます。
- AIシステムが、AI Actの付属書類Ⅰに列挙されたEU整合法令(Union harmonization legislation)[8]の適用を受ける製品又はそのような製品の安全装置であって、EU整合法令の下で第三者による適合性評価が必要とされている場合(Article 6.1)
- AI Actの付属書類Ⅲに列挙された、特定の分野における、特定の用途での利用が意図されている場合(Article 6.2)
上記のうち、2のカテゴリーに該当するAIシステムは、概要、以下のとおりです。
分野 |
用途 |
生体測定 |
自然人の遠隔生体識別、機微情報に基づく生体分類、感情認識 |
重要なインフラ |
情報インフラ、交通、電気水道ガス等の安全性の制御 |
教育及び職業訓練 |
入学選抜、学習成果の評価、適切な教育レベルの決定等 |
雇用・労働者管理 |
採用・選抜(例えば、求人広告のターゲティングや応募者のフィルタリング)、昇進や解雇の決定、従業員の行動のモニタリングと評価等 |
不可欠な民間・公共サービスへのアクセス |
公的扶助の給付の適格性の審査、信用力の評価や信用スコアの設定、生命・健康保険に関するリスク評価及び保険料算定、緊急通報の評価・分類 |
法執行 |
自然人が犯罪被害者になるリスクの評価、ポリグラフ検査、証拠の信用性評価、プロファイリングによる犯罪リスクの評価等 |
移住・亡命、国境管理 |
ビザ申請や亡命申請の検討支援等 |
司法の運営及び民主的なプロセス |
事実や法律の調査・解釈又は法適用に関する司法機関の支援、選挙や投票の結果又は自然人の投票行動に影響を与えること |
但し、形式的に②のカテゴリーに該当するAIシステムであっても、それが自然人の健康、安全及び基本権に害を与える重大なリスクを引き起こすものでなく、かつ、自然人のプロファイリングを伴わないものである場合には、「高リスク」のAIシステムとは評価されません(Article 6.3)。
(イ) システム要件
「高リスク」のAIシステムに該当する場合、当該AIシステムは、以下のシステム要件を充足する必要があります[9]。
システム要件 |
補足説明 |
リスク管理システム(Risk management system)の構築・導入・文書化・維持 (Article 9) |
予見し得るリスクを特定・分析・評価したうえで、適切なリスク管理措置を講じることが求められ、定期的なレビューとアップデートが必要とされます。 |
データガバナンス(Article 10) |
AIシステムの学習に用いる訓練用・検証用・テスト用のデータセットについては、AIシステムの用途に応じて、適切なガバナンスを及ぼすことが必要とされます。 |
技術文書(Technical documentation)の作成・維持 (Article 11) |
AIシステムがシステム要件を充足していることを示す技術文書を上市前に作成し、常に最新の状態を維持することが必要とされます。 |
自動生成ログの維持 (Article 12) |
AIシステムの適切な作動のトレーサビリティを確保するために、システムのライフタイムを通じて、自動的にログを記録する機能を実装することが必要とされます。 |
利用者への使用説明書(Instructions for use)の提供 (Article 13) |
AIシステムの提供者に関する情報、意図された利用目的をはじめとしたAIシステムの特徴・機能・限界など、法所定の項目を網羅した使用説明書を利用者に提供することが必要とされます。 |
人間による監視可能性の確保 (Article 14) |
AIシステムの使用期間中における自然人による効果的な監視を可能とし、健康、安全及び基本権に対するリスクを防止・最小化できるように設計・開発することが必要とされます。 |
正確性・安定性・サイバーセキュリティの確保 (Article 15) |
ライフサイクルを通じて、一貫して、十分なレベルでの正確性・堅牢性・サイバーセキュリティが達成されるように、設計・開発することが必要とされます。 |
(ウ) 「提供者」の義務
「高リスク」のAIシステムの提供者が負う主な義務は以下のとおりです。
- AIシステムが前述のシステム要件を満たすようにする義務(Article 16(a))
- AIシステムに提供者の名称等を表示する義務(Article 16(b))
- AI Actの要求事項を遵守するための品質管理システム(Quality management system)を整備する義務(Article 16(c), Article 17)
- AIシステムに関する技術文書等の各文書を10年間保存し、当局による使用を可能とする義務(Article 16(d))
- AIシステムが自動的に作成したログを記録保存する義務(Article 16(e))
- 上市又は運用開始前に、外部の認証機関(Notified body)による適合性評価手続(Conformity assessment procedure)を経る義務(Article 16(f), Article 43)
- EU適合宣言書(EU declaration of conformity)を作成する義務(Article 16(g), Article 47)
- AIシステムに「CEマーク」を付す義務(Article 16(h), Article 48)
- 上市又は運用開始前に、EUデータベースに登録する義務(Article 16(i), Article 49)
- リスク発生時に是正措置を講じ、監督機関に通知する義務(Article 16(j), Article 20)
- 当局の要請に応じてAIシステムが前述のシステム要件を満たしていることを証明する義務(Article 16(k))
- AIシステムを欧州アクセシビリティ法の要件に準拠したものとする義務(Article 16(l))
- EU域外で設立された提供者については、AIシステムの上市前にEU域内に認定代理人(Authorized representative)を任命する義務(Article 22)
(エ) 「利用者」の義務
「高リスク」のAIシステムの利用者が負う主な義務は以下のとおりです。
- 使用説明書に従ったAIシステムの利用が行われるように適切な技術的及び組織的な措置を講じる義務(Article 26.1)
- 必要な能力、権限等を有する自然人にAIシステムを監視させる義務(Article 26.2)
- AIシステムに入力するデータを、利用目的に照らして関連性のあるものに限定する義務(Article 26.4)
- AIシステムの動作をモニタリングし、リスク発生時には、提供者等に通知する義務(Article 26.5)
- AIシステムにより自動的に生成されるログを保存する義務(Article 26.6)
- 職場で「高リスク」のAIシステムを運用し又は利用する場合には、事前に従業員の代表者と影響を受ける従業員に対して、「高リスク」のAIシステムの利用の対象となる旨を通知する義務(Article 26.7)
- 自然人に関連する意思決定に「高リスク」のAIシステムを利用している場合には、その旨を本人に通知する義務(Article 26.11)
- 公的主体による利用等については、利用開始前に、基本権への影響評価を実施する義務(Article 27)
(4) 「限定リスク」のあるAI
所定の類型のAIシステムについては、その種別に応じて、一定の透明性の義務が課せられています。具体的には、以下のとおりです。なお、「高リスク」のAIシステムについても、当該類型にあてはまる場合には、透明性の義務が重畳的に課されることとなります(Article 50.6)
種別 |
透明性の義務の内容 |
自然人と相互作用することを意図されたAIシステム (例:対話型AI) |
提供者は、当該自然人に対して、AIシステムと相互作用していることが通知されるように、AIシステムを設計・開発する必要があります(Article 50.1)。 |
人工音声、画像、動画、テキストなどのコンテンツを生成するAIシステム (例:画像生成AI) |
提供者は、当該コンテンツが人工的に生成され、又は操作されたものである旨のマークがなされるようにする必要があります(Article 50.2)。 また、当該コンテンツがディープフェイクに該当する場合、利用者は、当該コンテンツが人工的に生成され、又は操作されたものである旨を開示する必要があります(Article 50.4)。 |
感情認識又は生体分類に用いられるAIシステム (例:感情認識AI、性別判定AIカメラ) |
利用者は、対象となる自然人に、当該AIシステムが動作していることについて、情報提供する必要があります(Article 50.3)。 |
自然人に対するこれらの情報提供は、当該自然人による最初の接触の時までに、適切な方法でなされなければなりません(Article 50.5)。
(5)「汎用目的型AIモデル」
汎用目的型AIモデルの提供者が負う主な義務は以下のとおりです。
- モデルの技術文書(学習やテストのプロセスやモデル評価の結果に関する記載を含む)を作成・更新する義務(Article 53.1(a))
- 汎用目的型AIモデルを自らのAIシステムに組み込むことを意図する、AIシステムの提供者に対して、所定の情報を提供する義務(Article 53.1(b))
- EUの著作権に関する法令の定め(例えば、テキストマイニングやデータマイニングに係る権利制限規定に関して、著作権者のオプトアウト権を認める規定など)を遵守する義務(Article 53.1(c))
- 学習に使用されたコンテンツに関する詳細なサマリー(sufficiently detailed summary)を公開する義務(Article 53.1(d))
(6) 「システミックリスクのある汎用目的型AIモデル」
AI Actは、「汎用目的型AIモデル」のうち「システミックリスク」を有するものを、「システミックリスクのある汎用目的型AIモデル」と定義し、追加的な規制を課しています。「システミックリスク」とは、最先端の汎用目的型AIモデルが有する能力に特有のリスクであって、モデルが有するリーチによって、又はバリューチェーン全体に大規模に伝播し得る基本権等への悪影響によって、EU市場に重大な影響を与えるものと定義されています(Article 3(64)(65))。システミックリスクの有無は、当該モデルの能力等から判断されますが、モデルの訓練のために費やされた計算量が浮動小数点演算で1025を超える場合には、システミックリスクを有するものと推定されます(Article 51)。
システミックリスクのある汎用目的型AIモデルの提供者が追加的に負う主な義務は以下のとおりです。
- システミックリスクの要件該当性を認識してから2週間以内に欧州委員会に通知する義務(Article 52. 1.)
- モデル評価(敵対的テスト(Adversarial testing)を含む)を実施する義務(Article 55. 1(a))
- 想定されるシステミックリスクを評価し、低減させる義務(Article 55. 1(b))
- 重大なインシデントに関する記録を作成し、当局に報告する義務(Article 55. 1(c))
- 十分なレベルのサイバーセキュリティを確保する義務(Article 55. 1(d))
輸入者・流通業者・製品製造者・認定代理人の義務
AI Actは、AIシステムの「輸入者」(Importer)、流通業者(Distributor)、製品製造者(Product manufacturer)及び認定代理人(Authorised representative)も規制対象としています。これらの主体の位置付け及び適用を受ける主な義務は、概ね以下のとおりです。
|
輸入者 (Importer) |
流通業者 (Distributor) |
製品製造者 (Product manufacturer) |
認定代理人 (Authorised representative) |
位置付け |
EU域内の主体であって、EU域外の主体の名称・商標が付されたAIシステムを、EU市場に出す者をいいます(Article 3(6))。 |
AIシステムをEU市場で利用可能とする者であって、提供者・輸入者以外のサプライチェーンに属する者をいいます(Article 3(7))。 |
一定のEU整合法令の適用を受ける製品の製品製造者は、AIシステムが当該製品の安全装置となっている場合において、当該製品等に自らの名称・商標を付したときには、当該AIシステムの「提供者」とみなされます(Article 25.3)。 |
AIシステム又は汎用目的型AIモデルの提供者であって、EU域内に設立されていない者から、当該提供者に代わってAI Act上の義務及び手続を履行することを受託した者をいいます(Article 3(5))。 |
主な義務 |
「高リスク」のAIシステムをEU市場に置く前に、当該AIシステムがAI Actの要件を満たすものであるか、確認する義務を負います(Article 23)。 |
「高リスク」のAIシステムを市場に出す前に、AIシステムについて、CEマークを有すること、EU適合宣言書や使用説明書が付されていることなどを確認する義務を負います(Article 24)。 |
提供者とみなされる場合には、提供者に適用される各種義務を負います。 |
提供者から受託した職務を遂行する義務を負います(Article 22.3、54.3)。 |
制裁
AI Actは、規制への違反に関して、違反類型に応じた制裁金を定めています。具体的には、以下のとおりです。
違反類型 |
制裁金 |
「許容できないリスク」のあるAIシステムの禁止に対する違反 |
前会計年度における世界全体における売上総額の7%か、3500万ユーロのいずれか高い金額が上限(Article 99.3.) |
その他の所定の義務に対する違反 |
前会計年度における世界全体における売上総額の3%か、1500万ユーロのいずれか高い金額が上限(Article 99.4, Article 101.1.) |
監督機関の要請に対する、不正確、不完全又は誤解を招く情報の提供 |
前会計年度における世界全体における売上総額の1%か、750万ユーロのいずれか高い金額が上限(Article 99.5.) |
発効日と施行時期
AI Actは、今後、EU官報での公布がなされた後、20日で発効します(Article 113)。
また、施行時期については、規制内容に応じて分かれており、具体的には、以下のとおりです。
規制内容 |
施行時期 |
原則 |
発効日の24ヶ月後に施行 (Article 113) |
「許容できないリスク」のあるAIシステムの禁止 |
発効日の6ヶ月後に施行 (Article 113(a)) |
「汎用目的型AIモデル」に関する規制 |
発効日の12ヶ月後に施行 (Article 113(b)) |
「高リスク」のあるAIシステムに関する規制 |
発効日の36ヶ月後に施行 (Article 113(c)) |
最後に
前述のとおり、AIシステムをEU市場で提供する場合や、AIシステムのアウトプットがEU域内で利用される場合等には、提供者・利用者がEU域外に所在する場合であっても、AI Actの適用を受ける可能性があります。AIシステムを提供又は利用している日本企業は、AI Actの各規制の施行に向けて、まずはAI Actの適用有無や、対象となるAIシステムがどのリスク類型に該当するかの判断を行うところから、対応を進める必要があります。
[1] https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the-first-worldwide-rules-on-ai/?mkt_tok=MTM4LUVaTS0wNDIAAAGTR8iGIQr1xuwz4sWM9j1oLBwD6jfnh0mRdayiV08k4Yv0DpQBOhpTwnTepSxZm46OCn7z4wQGcqCaV1Ukz3U3G3WoGLKbJGCavJoDSdsK1dMU
[2] https://oecd.ai/en/wonk/ai-system-definition-update
[3] Article 3(3)
[4] Article 3(4)
[5] https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
[6] 筆者によって、簡略化したうえで記載しております。詳細は、原文をご確認ください。
[7] 行方不明者や重大犯罪の被疑者の捜索、又はテロの防止を目的とする場合などには、一定の条件の下で例外が認められています。
[8] 一般に、EU で製品を流通させるにあたり、特定分野の製品が満たすべき要件を定めた法令を指します。
[9] 提供者が負う義務として別途規定されている内容と、一部重複があります。