わが国のAI立法の在り方を見据える観点からEUのAI規則案(AI法案:Artificial Intelligence Act)の最終段階を改めて探る

Last Updated:March 14, 2024

 EU欧州議会は3月14日、史上初の人工知能(AI)法を可決した。 この法案は議員の85%の賛成多数で可決された。 AI システムがプライバシー、人間の尊厳、基本的権利を確実に守りながら、AI に関連するリスクを軽減することを目的としている。

 ChatGPTなどの汎用人工知能(General-purpose AI models )テクノロジーは、AIシステムの構築と展開の方法を急速に変革している。これらのテクノロジーは今後数年間で大きなメリットをもたらし、多くのセクターでイノベーションを促進することが期待されているが、一方でその破壊的な性質は、プライバシーと知的財産権、責任と説明責任に関する政策問題等を提起する。

 そして、偽情報と誤った情報を広めるこれら技術導入の可能性についての大きな懸念も生じている。

 EU議会の議員は、適切な保護手段が整っていることを確認しながら、これらのテクノロジーの導入を促進することの間で微妙なバランスをとる必要があり、2018年以降取り組んできたAIに関する史上初の法的枠組みにつき、欧州議会213 日、欧州議会の「域内市場および消費者保護に関する委員会IMCO)」と、「市民的自由・司法・内務委員会 (LIBE)」は、EU が提案した AI 法案の採択を圧倒的多数で可決、本年4月の最終可決段階に入る。

 本ブログは最終段階の法案の修正内容を改めて整理する目的でまとめた。また、ブログの執筆のあたり、欧州議会や委員会の公式資料だけでなく、EUの主要AI研究者の顔ぶれ等についても補足、言及した。(その他、欧州 AI 事務局(European AI Office)の青写真問題などがあるが、別途整理する)

 なお、本ブログで引用するとおり、わが国のAI法案の検討は2月中旬に自民党「党AIの進化と実装に関する社会推進本部の下にあるプロジェクトチーム(PT、座長・平将明衆院議員)は、責任あるAI利活用を推進するための法制度の在り方について検討を進めている」という。

 また、文化庁「公開時点において議論・検討中である AI と著作権に関する論点整理の項目立て及び記載内容案の概要」等を公開しているのみである。

  

1.EU委員会の AIに関する史上初の法的枠組み検討経緯(European approach to artificial intelligence Milestones)サイト解説

 欧州委員会サイト“European approach to artificial intelligence”から一部抜粋、仮訳する。

 同委員会はAIに関する史上初の法的枠組みを提案しており、これはAIのリスクに対処し、欧州が世界的に主導的な役割を果たす立場を確立するものである。

  AI 法は、AI の開発者、導入者、ユーザーに、AI の特定の用途に関する明確な要件と義務を提供することを目的としている。 同時に、この規則は企業、特に中小企業(SME)の管理的および財政的負担を軽減することを目指している。

 AI は、より広範な AI パッケージの一部であり、AI に関する最新の調整計画も含まれています。 規制の枠組みと調整計画が連携することで、AI に関して人々と企業の安全と基本的権利が保証される。 そして、EU全体でAIの導入、投資、イノベーションを強化することになる。

2.2021年以降のAI規則案(AI法案)の検討経緯

  前述のとおり、欧州委員会が2021年4月21日にAI規則案(AI法案)の検討開始を公表しているが、主要なAI規則案の検討経緯をまとめたレポートがあるので、以下引用する。

 2023年 7月 6日国際社会経済研究所 小泉雄介氏「EUのAI規則案の欧州議会修正案と顔識別システム等に対する規制動向」から以下、一部抜粋する。

◎AI規則案の審議状況

3.2024 2 13 日、欧州議会の「域内市場および消費者保護に関する委員会(IMCO)」と、「市民的自由・司法・内務委員会 (LIBE)」は、EU が提案した AI 法案の採択を圧倒的多数で可決

 2024.2.28 Inside privacy blog EU AI : 侵害本文からの重要なポイントから抜粋、仮訳する。なお、必要に応じ筆者はリンクや注書きを追加した。

 2024 年 2 月 13 日、欧州議会「域内市場および消費者保護に関する委員会(Committee on the Internal Market and Consumer Protection:IMCO)」と、「市民的自由・司法・内務委員会 (Commission des libertés civiles, de la justice et des affaires intérieures:LIBE)」 (以下、「議会委員会」という) は、EU が提案した AI 法案の採択を圧倒的多数で可決した。 これは、2月初めに閣僚理事会の常任代表委員会(Council of Ministers’ Permanent Representatives Committee (以下、「Coreper委員会」という)による文書承認の投票に続くものである。これにより、この法案は最終版に近づきつつある。 立法プロセスの最後のステップは欧州議会全体による投票であり、現時点では2024年4月に行われる予定である。

 Coreper 委員会と議会委員会によって承認された暫定合意法案には、以前の法案と比較して多くの重要な変更が含まれており、このブログでは以下のとおり、いくつかの重要なポイントを説明する。

(1) 汎用 AI モデル(General-purpose AI models)多くの議論の結果、最終法案は「汎用 AI (「GPAI」) 」モデルを規制することになるようである。 他の要件の中でも、GPAI モデルのプロバイダーは、特定の最小限の要素を含むモデルの技術文書を作成および維持し、これらのモデルを自社の AI システムに統合するプロバイダーに詳細な情報と文書を提供し、EU 著作権法を尊重するポリシーを採用し、GPAI モデルのトレーニングに使用されるコンテンツの「十分に」詳細な概要が公開されている。

(2) システミックリスクを伴う汎用 AI モデル: この法律は、「システミックリスクを伴う」GPAI モデルの提供者に高い義務を課している。 これらには、モデルの敵対的テストを含むモデル評価を実行し、起こり得る EU レベルのシステムリスクを評価および軽減し、適切なサイバーセキュリティ保護を確保するための要件が含まれる。

(3) 高リスク AI システムの適格性の例外: 本文の以前のバージョンと一致して、この法案の最も広範な義務は「高リスク」 AI システムに適用される。 この法律では、リスクの高い 2 種類の AI システムが特定されている。(注1)(1) 法案の附属書 II P.243以下 にリストされている特定の EU 法の対象となる製品 (または製品の安全コンポーネント) として使用されることを目的とした AI システム、および (2)  遠隔生体認証システムの特定の用途や法執行に使用される特定の AI システムなど、法案の附属書 IIIP.248以下に記載されている目的に使用される AI システム。 ただし、合意案にはこの要件の例外も含まれている。

 附属書 III の範囲内にある AI システムが「自然人の健康、安全、または基本的権利に危害を及ぼす重大なリスクを引き起こさない」場合、プロバイダーは文書化することができる。

 これに基づき、そのシステムをそのようなシステムに対するAI法の義務から除外される。EU加盟国の市場監視当局(注2)には、誤って分類されたとみなす理由があるシステムを評価し、是正措置を命令する権限が与えられている。

  また、プロバイダーが高リスク AI システムに対する義務の適用を回避するために AI システムを誤って分類したと市場監視当局が判断した場合、当該プロバイダーは罰金の対象となる。

(4) 銀行、保険会社、政府に対する顧客の基本的権利の影響評価(impact assessment): 公法に準拠する機関である派遣会社、公共サービスを提供する民間事業者、および (一部の例外を除く) 自然人の信用力を評価するために高リスクの AI システムを導入する事業者、または個人の信用スコアを評価したり、自然人の生命保険や健康保険に関連するリスクと価格を評価したりするには、P.247以下の附属書 III (ANNEX III High-risk AI systems referred to in article 6(2))(注1)にリストされている高リスク AI システムを導入する前に、基本的権利への影響評価を実行する必要がある。これには、これらの事業体は、以下を評価する必要がある。

①高リスク AI システムが意図された目的に沿って使用される導入者のプロセス。

②高リスク AI システムが使用される予定の期間と頻度の説明。

③特定の状況での使用によって影響を受ける可能性のある自然人およびグループのカテゴリー。

④法案第 13 条(P.108以下)に基づく透明性義務に従ってプロバイダーによって提供される情報を考慮した、影響を受ける可能性が高いと特定された個人または個人のグループのカテゴリーに影響を与える可能性がある危害の具体的なリスク。

⑤使用説明書に従った人間による監視措置の実施の説明。

➅内部ガバナンスおよび苦情メカニズムの取り決めを含む、これらのリスクが現実化した場合にとるべき措置。

(5)透明性義務: AI 法は、(1) 合成音声、画像、ビデオ、またはテキスト コンテンツを生成する AI および GPAI システムのプロバイダー、(2) 感情認識(注3)(注4)の導入者を含む、特定の AI システムおよび GPAI モデルのプロバイダーおよびユーザーに透明性義務を課している。 (3) ディープフェイクを構成する画像、音声、またはビデオ コンテンツを生成または操作する AI システムの導入者、および (4) 問題について公衆に知らせることを目的として公開されたテキストを生成または操作するシステムの導入者 公共の利益(この法案は、特定の附属書 III 高リスク AI システムの導入者に追加の透明性義務を課している。 場合によっては、コンテンツが人工的に生成または操作されたものであることを識別できるように、コンテンツに機械可読な方法でラベルを付ける必要がある。 AI 法案では、AI システムが芸術、風刺、創造、または同様の目的で使用される場合など、一部の状況では例外が規定されている。

(6)AI法の発効日: AI 法は EU 官報に掲載されてから 20 日後に発効し、通常、発効から 2 年後に組織に適用され始めるが、一部の例外がある。特定の AI 慣行の禁止は 6 か月後に適用される。GPAI モデルに関する規則は 12 か月後に適用される (この日より前に市場に投入された GPAI モデルを除き、これらはさらに 24 か月後に適用される)。法案附属書 II の高リスク AI システムに適用される規則は36 か月後に適用される。

3.EUシンクタンクがEUの急速なAI技術の進展に対する一方でその破壊的な性質は、プライバシーと知的財産権、責任と説明責任に関する政策問題を提起するとともに偽情報と誤った情報を広めるAI技術者の取組みの可能性についての大きな懸念を表明

 2023.3.30「汎用人工知能のAt Glance」から一部抜粋、仮訳する。なお、ここに紹介されるAI研究者の論文等については別途本ブログでまとめたい。

EU AI法案における汎用AI(基礎モデル)

 EU議会の議員らは現在、「高リスク」AIシステムにEU内の一連の要件と義務を課す、AIに関するEU規制枠組みを定義するための長期交渉に取り組んでいる。 提案されている人工知能法案 (AI 法案) の正確な範囲は議論の骨子である。 欧州委員会の当初の提案には汎用 AI 技術に関する具体的な規定は含まれていなかったが、EU理事会はそれらを検討する必要があると提案した。 一方、科学者たちは、次のようなことが起こると警告している。

 将来の AI 法では、AI アプリケーションの特定の用途は規制されるものの、その基礎となる基盤モデルは規制されないため、意図された目的に応じて AI システムを高リスクかそうでないかに分類するアプローチは、汎用システムの抜け穴を生み出すことになる。

 これに関連して、Future of Life Institute などの多くのAI関係者は、汎用 AI を AI 法の範囲に含めるよう求めている。このアプローチを支持する一部の学者は、それに応じて提案を修正することを提案した。アムステル大学法学部教授Natali Helberger 氏と米国ノースウェスターン大学Communication Studies and Computer Science 教授Nick Diakopoulos 氏は、汎用 AI システム用に別のリスク カテゴリーを作成することを検討することを提案している。これらは、その特性に合った法的義務と要件、およびデジタルサービス法 (DSA) に基づくものと同様のシステミックリスク監視システムの対象となる。

Natali Helberger 氏

Nick Diakopoulos 氏

 フィッリプ・ハッカー(Philipp Hacker)氏(European New School of Digital Studies, European University Viadrina, Germany)、アンドレア・エンゲル(Andreas Engel)氏(Faculty of Law, Heidelberg University, Germany)、マルコ・マウアー(Marco Mauer)氏(Faculty of Law, Humboldt-University of Berlin)は、AI法は汎用AIのリスクの高い特定の用途に焦点を当て、透明性、リスク管理、非差別に関する義務を含めるべきだと主張している。 DSA のコンテンツ ・モデレーション(注5)・ルール (通知とアクションのメカニズムなど)および信頼できるフラッガーなど)を、そのような汎用 AI をカバーするように拡張する必要があると主張している。「Regulating ChatGPT and other Large Generative AI Models 」(注6)参照。

  1. 6.12 公表「ChatGPTおよびその他の大規模生成AIモデルの調整」参照。

Philipp Hacker 氏

Andreas Engel 氏

 サブリナ・キュスパール(Sabrina Küspert)氏(German tech think tank Stiftung Neue Verantwortung)(注7)、ニコラ・モエ( Nicolas Moës)氏(注8)、コナー・ダンロップ(Connor Dunlop)氏は、特にバリューチェーンの複雑さに対処し、オープンソース戦略を考慮し、コンプライアンスとポリシー施行をさまざまなビジネスモデルに適応させることによって、汎用AI規制を将来にわたって使用できるものにするよう求めている。 アレックス・エングラー(Alex Engler)氏(注9)アンドレア・レンダ(Andrea Renda)氏(注10)にとって、この法律はリスクの高いAIシステムでの汎用AI利用のためのAPIアクセスを阻止し、汎用AIシステムプロバイダーに対するソフトコミットメント(自主的な行動規範など)を導入し、バリューチェーンに沿ったプレーヤーの責任を明確にするべきであると指摘している。

Sabrina Küspert 氏

Nicolas  Moës 氏

Connor Dunlop氏

Alex C.Engler 氏

Andrea Renda 氏

 

4.IMCO およびLEBEリリース文「Artificial Intelligence Act: committees confirm landmark agreement

 以下、要旨を仮訳する。

【要旨】

①汎用型人工知能に関する保護措置が合意された。

②法執行機関による生体認証システムの使用の制限を加えた。

③ユーザーの脆弱性を操作または悪用するために使用されるソーシャル・ スコアリングにつき AI の禁止。

④消費者が苦情を申し立て、意味のある説明を受ける権利を保障する。

 欧州議会の議員は、安全性を確保し基本的権利を遵守する人工知能法に関する暫定合意(provisional agreement) (注11)を委員会レベルで承認した。

 2月13日、域内市場委員会(IMCO)と市民的自由委員会(LIBE)は、人工知能法に関する加盟国との交渉結果を71対8(棄権7)で承認した。

 この規則法案は、基本的権利、民主主義、法の支配、環境の持続可能性を高リスクの AI から守ることを目的としている。 同時に、イノベーションを促進し、ヨーロッパを AI 分野のリーダーとして確立することを目指している。 この規制法案は、AI の潜在的なリスクと影響のレベルに基づいて AI に対する義務を定めている。

(1)禁止されるAIアプリケーション(Banned applications

 この暫定合意では、①機密特性に基づく生体認証分類システム、②顔認識データベース用のインターネットまたは監視カメラ映像からの顔画像の対象外のスクレイピング、③職場や学校での感情認識(emotion recognition )、社会的スコアリング、予測ポリシングに基づく警察など、国民の権利を脅かす特定の AI アプリケーションが禁止されている。これらAIアプリは 人間のプロファイリングや特性の評価のみを目的としており、AI は人間の行動を操作したり、人々の脆弱性を突いたりする。

(2) 法執行機関へのAI法適用除外(Law enforcement exemptions)

 法執行機関による生体認証識別システム (Remote Biometric Identification:RBI) (注12)の使用は、網羅的にリストされている狭義の状況を除き、原則として禁止される。「リアルタイム」RBI は、厳格な保護下でのみ展開できる。 事前の司法または行政の許可があれば、時間と地理的範囲が制限される。このような用途には、例えば、行方不明者の捜索やテロ攻撃の防止などが含まれる。 このようなシステムを事後的に使用する (「ポスト・リモート RBI」こともリスクが高いと考えられており、司法の許可が必要であり、刑事犯罪と関連付けられる必要がある。

(3) 高リスクAIシステムに対する義務の明確化

 健康、安全、基本的権利、環境、民主主義、法の支配に重大な影響を与える可能性がある他の高リスク AI システムについても、明確な義務が合意されたた。 高リスクの用途には、重要なインフラ、教育および職業訓練、雇用、必須サービス(医療、銀行など)、法執行における特定のシステム、移民および国境管理、司法および民主的プロセス(選挙への影響など)が含まれる。 国民はAIシステムについて苦情を申し立て、自分たちの権利に影響を与えるリスクの高いAIシステムに基づく決定について説明を受ける権利を有することになる。

(4) 透明性の要件

 汎用 AI (GPAI) システムとそのベースとなるモデルは、トレーニング中に一定の透明性要件を満たし、EU 著作権法に準拠する必要がある。 システミックリスクを引き起こす可能性のあるより強力な GPAI モデルには、モデルの評価、リスク評価、インシデントのレポートの実行など、追加の要件が必要になる。 さらに、人工または操作された画像、音声、またはビデオ コンテンツ (「ディープフェイク」(注13) には、そのように明確にラベル付けする必要がある。

(5)イノベーション・中小企業(SMEs)支援策

 AI規制のサンドボックス(AI Regulatory Sandboxes)と現実世界でのテストが国家レベルで確立され、中小企業や新興企業に市場投入前に革新的な AI を開発およびトレーニングする機会が提供される。

 AIサンドボックスにつき新旧規則案も含めた法案逐条解説サイトである「EU AI ACT」サイトから抜粋、仮訳する

第53条 AI 規制サンドボックス

‍ 2024年2月2日にCoreper Iによって承認されたバージョンに基づいて、2024年2月6日に更新された‍。

1.加盟国は、管轄当局が国家レベルで少なくとも 1 つの AI 規制サンドボックスを設立することを保証し、発効後 24 か月以内に運用を開始するものとする。このサンドボックスは、他の 1 つまたは複数の加盟国の管轄当局と共同で設立される場合もある。欧州委員会は、AI 規制サンドボックスの確立と運用のための技術サポート、アドバイス、ツールを提供する場合がある。

 前の段落で定められた義務は、EU参加加盟国に同等レベルの全国範囲を提供する限り、既存のサンドボックスに参加することによっても履行することができる。

1a. 追加の AI 規制サンドボックスが、地域レベルまたは地方レベルで、または他の加盟国の管轄当局と共同で設立される場合もある。

1b. 欧州データ保護監督者は、EU の機関、団体、機関向けに AI 規制サンドボックスを確立し、本章に従って国内管轄当局の役割と任務を遂行することもできる。

1c.EU 加盟国は、第 1 項および第 1a 項で言及されている権限ある当局が、本条を効果的かつ適時に遵守するために十分な資源を割り当てることを確保するものとする。必要に応じて、国の管轄当局は他の関連当局と協力し、AI エコシステム内での他の関係者の関与を許可する場合がある。

この条項は、国内法または連合法に基づいて確立された他の規制サンドボックスには影響を与えないものとする。EU加盟国は、他のサンドボックスを監督する当局と国内の管轄当局との間で適切なレベルの協力を確保するものとする。

1d. 本規則の第 53 条(1)に基づいて設立された AI 規制サンドボックスは、第 53 条および第 53a 条に従って、市場での配置または使用開始に当たりイノベーションを促進し、革新的な AI システムの開発、トレーニング、テスト、検証を促進する制御された環境を提供するものとする。

将来のプロバイダーと管轄当局の間で合意された特定のサンドボックス計画に従われたい。 このような規制サンドボックスには、サンドボックス内で監視された現実世界の条件でのテストが含まれる場合がある。

1e. 所管当局は、リスク、特に基本的権利、健康と安全、検査、緩和策、およびこの義務と要件に関連したそれらの有効性を特定することを目的として、本規則、および関連する場合には、サンドボックス内で監督されるその他の連合および加盟国の法律に基づきサンドボックス内で必要に応じて指導、監督、および支援を提供するものとする。

1f. 所管当局は、プロバイダーおよび将来のプロバイダーに、規制上の期待および本規則に定められた要件および義務を履行する方法に関するガイダンスを提供するものとする。

AI システムのプロバイダーまたは将来のプロバイダーの要請に応じて、管轄当局はサンドボックス内で正常に実行されたアクティビティの書面による証拠を提供するものとする。また管轄当局は、サンドボックス内で実施された活動、関連する結果および学習成果を詳述した終了報告書を提供するものとする。 プロバイダーは、そのような文書を使用して、適合性評価プロセスまたは関連する市場監視活動を通じて本規則への準拠を証明することができる。 この点に関して、国内所轄官庁が提供する出口報告書と書面による証明は、適合性評価手続きを合理的な範囲で迅速化することを目的として、市場監視当局と通知機関によって積極的に考慮されるものとする。

1fa. 法案 第 70 条の機密保持規定(Confidentiality)に従い、サンドボックスプロバイダー/プロバイダー候補者の同意を得た上で、欧州委員会と理事会は出口レポートにアクセスする権限を与えられ、本条に基づく任務を遂行する際には、必要に応じて出口レポートを考慮するものとする。プロバイダーと将来のプロバイダーの両方、および国の管轄当局がこれに明示的に同意した場合、終了レポートは、この記事で言及されている単一の情報プラットフォームを通じて公開できる。

1g. AI 規制サンドボックスの設立は、以下の目的に貢献することを目的とする。

a本規則、または関連する場合には他の該当する連合および加盟国の法律への規制遵守を達成するために法的確実性を向上させる。

b.AI 規制サンドボックスに関与する当局との協力を通じてベスト プラクティスの共有をサポートする。

c.イノベーションと競争力を促進し、AI エコシステムの開発を促進させる。

d.証拠に基づいた規則の学習に貢献する。

e.特に新興企業を含む中小企業 (SME) が提供する場合、AI システムの欧州連合市場へのアクセスを促進および加速させる。

2.国の管轄当局は、革新的な AI システムが個人データの処理に関係する場合、またはその他のデータへのアクセスを提供またはサポートする他の国内当局または管轄当局、国のデータ保護当局、およびその他の管轄当局の監督上の権限に該当する限り、これらの他の国家当局は、AI 規制サンドボックスの運用に関連しており、該当する場合、それぞれの任務と権限の範囲内でそれらの側面の監督に関与する。

3.AI 規制サンドボックスは、地域レベルまたは地方レベルを含む、サンドボックスを監督する管轄当局の監督および是正権限に影響を与えないものとする。 かかる AI システムの開発およびテスト中に特定された健康と安全および基本的権利に対する重大なリスクは、適切に軽減されるものとする。加盟国の管轄当局は、一時的にまたは定期的に次のことを行う権限を有するものとする。

(以下、略す)

(6)AI法の最終成立に向けた次のステップ

 この法案文書は、今後の欧州議会の本会議での正式な採択と最終的な理事会の承認を待っている。このAI法は発効後 24 か月後に完全に施行、適用されるが、(ⅰ)発効後 6 か月後に適用される禁止行為の禁止、(ⅱ)行動規範(発効後 9 か月に適用される)を除き、 (ⅲ)ガバナンスを含む汎用 AI ルール (発効後 12 か月)、(ⅳ)高リスクシステムに対する義務 (36 か月)を除く。

****************************************************************:

(注0)(2024.3.7 追加))3月7日欧州委員会は以下のリリースを行った。仮訳する。

2024.3.7 欧州委員会欧州連合 AI オフィスでの雇用機会活動開始」

  欧州委員会は、欧州連合AI事務局の新しいメンバーを募集するための関心表明の募集を2分野で開始した。 信頼できる AI を形成するユニークな機会を得るために、テクノロジー スペシャリストまたは管理アシスタントとして今すぐ応募されたい。

 欧州連合 AI オフィス(European AI Office)は、最初の雇用活動を開始した。 EU の AI 専門知識の中心地として、欧州連合AIオフィスは、AI 法の施行、特に汎用 AI(general-purpose AI) に関して重要な役割を果たし、信頼できる AI の開発と使用、および国際協力を促進する。今回の最初の採用ラウンドでは、(1)テクノロジーのスペシャリストと(2)管理事務補助スタッフ(administrative assistants)を募集している。

 関心表明の申込期限は、2024 年 3 月 27 日の 12:00 CET である。 テクノロジースペシャリストと管理事務補助スタッフのそれぞれの応募フォームを通じて興味を表明できる。

我われの協力は、情熱を持った個人にとって、ヨーロッパやその他の国で信頼できる AI の形成に大きく貢献できる、ユニークでスリリングな機会を提供する。 我われは、AI に関する世界初の包括的な法的枠組みとして AI 法を施行し、信頼できる AI への世界的なアプローチに向けて取り組んでいく。 AI オフィスは、コミュニケーションネットワーク・コンテンツと技術総局(DG-CONNECT)の一部として欧州委員会内に設立され、世界的な AI 政策とイノベーションの最前線に立っている。(以下、略す)

(注1) AI法案第 6 条 (2) に基づく高リスク AI システムとは、以下のいずれかの分野にリストされている AI システムをいう。

ANNEX III High-risk AI systems referred to in article 6(2)(P.222以下)を仮訳する。

1.関連する欧州連合法または参加国の国内法で使用が許可されている限り、生体認証:

 (a) 遠隔生体認証識別システム。 これには、特定の自然人が本人であると主張する本人であることを確認することを唯一の目的とする生体認証に使用することを目的とした AI システムは含まれないものとする。

 (aa) 機密属性または保護された属性または特性の推論に基づく、生体認証の分類に使用することを目的とした AI システム。

 (ab) 感情認識に使用することを目的とした AI システム。

2.重要なインフラストラクチャ: (a) 重要なデジタル・インフラストラクチャ、道路交通、水道、ガス、暖房、電気の供給の管理と運用における安全コンポーネントとして使用することを目的とした AI システム。

3.教育および職業訓練

(a)あらゆるレベルの教育および職業訓練機関へのアクセスまたは入学を決定する、または自然人を割り当てるために使用されることを目的とした AI システム。

 (b) 学習成果を評価するために使用することを目的とした AI システム。これには、あらゆるレベルの教育機関および職業訓練機関における自然人の学習プロセスを導くためにその成果が使用される場合も含まれます。

 (ba) 教育および職業訓練機関内で、またはその内部で、個人が受ける、またはアクセスできる適切な教育レベルを評価する目的で使用されることを目的とした AI システム。

(bb) 教育および職業訓練機関内でのテスト中の学生の禁止行為を監視および検出するために使用することを目的とした AI システム。

4.雇用、労働者の管理、および自営業へのアクセス:

(a) 自然人の採用または選択、特にターゲットを絞った求人広告の掲載、求人応募の分析とフィルタリング、および候補者の評価に使用することを目的とした AI システム。

 (b) 仕事関連の関係条件、仕事関連の契約関係の促進と終了に影響を与える決定を下し、個人の行動や個人の特性や特性に基づいてタスクを割り当て、従業員のパフォーマンスと行動を監視および評価するために使用されることを目的とした AI そのような関係にある人。

5.必須の民間サービスおよび必須の公共サービスおよび給付金へのアクセスおよび享受:

(a) 必須の公的扶助給付金およびサービスに対する自然人の適格性を評価するために、公的機関または公的機関に代わって使用されることを目的とした AI システム。 ヘルスケア サービス、およびそのような特典やサービスの付与、削減、取り消し、または回収を含む。

 (b) 金融詐欺を検出する目的で使用される AI システムを除く、自然人の信用度を評価したり、信用スコアを確立したりするために使用することを目的とした AI システム。

 (c) 自然人による緊急通報を評価および分類することを目的とした AI システム、または警察、消防士、医療援助や救急医療を含む緊急初期対応サービスの派遣、または派遣における優先順位の確立に使用することを目的とした AI システム 患者トリアージシステム。

 (ca) 生命保険や健康保険の場合、自然人に関するリスク評価と価格設定に使用することを目的とした AI システム。

6.関連する連合法または加盟国の国内法で使用が許可されている場合の法執行機関:

(a) 自然人が被害者になるリスクを評価するために、法執行機関によって、または法執行機関に代わって、または法執行機関を支援する連合機関、代理店、事務所もしくは団体によって、または法執行機関に代わって使用されることを目的とした事犯罪の AI システム 刑。

 (b) 法執行機関によって、または法執行機関に代わって、または法執行機関を支援する連合機関、団体、機関によって、ポリグラフや同様のツールとして使用されることを目的とした AI システム。

 (d) 刑事犯罪の捜査または訴追の過程で証拠の信頼性を評価するために、法執行機関によって、または法執行機関に代わって、あるいは法執行機関を支援する連合の機関、機関、事務所もしくは団体によって使用されることを目的とした AI システム

 (e) 法執行機関によって、または法執行機関に代わって、または法執行機関を支援する連合機関、代理店、事務所もしくは団体によって、単独ではなく自然人の犯罪または再犯のリスクを評価するために使用されることを目的とした AI システム 指令 (EU) 2016/680 の第 3 条(4) に記載されている自然人のプロファイリング、または自然人または集団の性格特性および特性、または過去の犯罪行為を評価すること。

 (f) 指令第 3 条 (4) に記載されている自然人のプロファイリングのために、法執行機関によって、または法執行機関に代わって、または法執行機関を支援する連合機関の機関、機関、事務所、または団体によって使用されることを目的とした AI システム (EU) 2016/680 刑事犯罪の発見、捜査、または起訴の過程において。

7.関連する連合法または国内法で使用が許可されている場合に限り、移住、亡命、および国境管理の管理:

(a) 管轄の公的機関によってポリグラフおよび同様のツールとして使用されることを目的とした AI システム。

 (b) 自然災害によってもたらされる安全上のリスク、不規則な移住のリスク、または健康上のリスクを含むリスクを評価するために、権限のある公的機関、またはその代理として、または連合の機関、事務所、団体によって使用されることを目的とした AI システム。 加盟国の領土に入国しようとする、または加盟国の領土に入った人。

(d) 庇護、ビザ、居住許可の申請および資格に関する関連する苦情の審査のために管轄の公的当局を支援するために、管轄の公的当局によって、またはその代理として、または連合の機関、事務所、団体によって使用されることを目的とした AI システム。 証拠の信頼性に関する関連評価を含む、ステータスを申請する自然人の情報。

 (da) 移住、亡命、国境管理の文脈において、以下の症状を有する自然人を検出、認識、または識別する目的で、連合機関、事務所、または団体を含む権限のある公的機関によって、またはその代理として使用されることを目的とした AI システム。 渡航書類の確認を除く。

8.司法の管理と民主的プロセス:

(a) 司法当局による、またはその代理として、司法当局が事実と法律を調査および解釈し、法律を一連の具体的な事実に適用するのを支援するために使用することを目的とした AI システム または裁判外紛争解決において同様の方法で使用されます。

 (aa) 選挙や国民投票の結果、あるいは選挙や国民投票における自然人の投票行動に影響を与えるために使用されることを目的とした AI システム。 これには、管理上およびロジスティック上の観点から政治キャンペーンを組織、最適化、構築するために使用されるツールなど、自然人が出力に直接さらされない AI システムは含まれない。

(注2) 市場監視当局の役割につき欧州委員会サイトから抜粋、仮訳した(加盟国の市場監視当局詳細内容は、EUサイト参照)

 市場監視は、市場にある製品が適用される法律や規制に準拠し、既存の EU の健康と安全要件に準拠していることを確認するために当局によって実施される活動である。 欧州市場の安全を維持し、消費者と経済運営者間の信頼を育むことが重要である。また、準拠する企業に対して平等な競争条件を維持し、不正なトレーダーによる市場シェアの損失を回避するのにも役立つ。

 市場監視には、市場の監視と制御、必要に応じて是正措置や罰則の賦課を含むあらゆる範囲の行為が含まれる。 これには、当局と経済事業者(メーカー、輸入業者、流通業者、オンラインプラットフォーム、小売店)、および消費者および消費者団体との密接な接触が含まれる。

 EU では、各国の市場監視当局が市場監視を実施する責任を負う。 また、危険な製品を発見した場合には適切な措置を講じる責任もある。この目的を達成するため、検査用のサンプルを採取したり、実店舗だけでなくオンライン市場からサンプルを集めて専門の研究所でテストしたりすることもある。

 さらに市場監視当局は税関と緊密に連携しており、安全でない製品や規格に準拠していない製品が EU 市場に流入するのを防ぐことができ、輸入品を管理する最初のフィルターとなる。

(注3) EUのAI規則案の定義

・ 「感情認識システム(emotion recognition system)とは、生体データに基づいて自然人の感情または意図を識別または推測することを目的としたAIシステムを意味する。」(AI規則案第3条(34):  ‘emotion recognition system’ means an AI system for the purpose of identifying or inferring emotions or intentions of natural persons on the basis of their biometric data;

 ・感情認識技術は比較的新しい技術として、様々なサービスへの応用が期待されており、日本でも人事採用やドライバーモニタリング、マーケティング、パブリックセキュリティ等の分野で実用化されつつある。

 ・しかし欧米では、感情認識技術に対して様々な懸念・批判が専門家・市民団体・メディア等から提示されている。

EUのAI規則案など、感情認識技術の使用を法令やガイドラインで規制しようとする動きが2021年になって顕著になりつつある。(2022年5月(株)国際社会経済研究所 小泉 雄介氏の鋭い分析「海外における感情認識サービスと規制の動向」から抜粋)。

 (注4) 感情認識技術に対する主な懸念・批判は、以下の4点にまとめることができる。

(1)個人に対する透明性の欠如。

(2)感情認識技術は科学的根拠が薄弱である。

(3)内心の自由表現の自由などの基本的権利を侵害する

(4)感情認識技術における偏見・先入感

(注5) 不正・不適切な投稿内容監視(content modulation)とは、誤った情報であると判断された音声やコンテンツの配信を制限、制約、削除する、または誤った情報であると判断された音声やコンテンツに対して発言者を制裁するための、ソーシャル メディア プラットフォームによるあらゆる行為を意味する。(Law Insiderから抜粋、仮訳)

(注6) この論文につき機械翻訳を読んでみた。

「ChatGPTと他の大規模生成AIモデルの調節【JST・京大機械翻訳】」を一部抜粋する。特に専門用語については注記がないととても理解できない。ちなみに、筆者なりに赤字で補足した。

抄録/ポイント:

ChatGPT,GPT-4または安定拡散(画像生成AI(Stable Diffusion)とは、ユーザーが入力したテキストを頼りに、AIがオリジナルの画像を数秒~数十秒程度で自動生成するシステムを指す。日本でよく知られている画像生成AIには「Stable Diffusion(ステーブルディフュージョン)」や「Midjourney(ミッドジャーニー)」があり、デザイン業界の常識を覆す存在として注目を浴びている)のような大規模生成AIモデル(LGAIM)は,著者らが通信し,説明し,創造する方法を迅速に変換する。しかし,EUとそれ以上(以外の地域)におけるAI調節は,LGAIMではなく,従来のAIモデルに主に焦点を合わせている。本論文は,信頼できるAI規制に関する現在の議論において,これらの新しい生成モデルをin situ化し(据えて),その法則がそれらの能力にいかに調整できるかを問う。技術的基礎を敷設した後,論文の法的部分は,(1)直接規制,(2)データ保護,(3)コンテンツ・モデレーション(ウェブサイトまたはSNSに投稿されたコンテンツをチェックし、不適切なものを削除する作業),(4)政策提案をカバーする4段階で進行する。それは,LGAIM開発者,展開者,専門的および非専門的(家)ユーザー,ならびにLGAIM出力のレシピエントを区別することにより,LGAIM設定におけるAI値チェーンを捉える新しい用語を示唆する。(以下、略す)

Large generative AI models (LGAIMs), such as ChatGPT, GPT-4 or Stable Diffusion, are rapidly transforming the way we communicate, illustrate, and create. However, AI regulation, in the EU and beyond, has primarily focused on conventional AI models, not LGAIMs. This paper will situate these new generative models in the current debate on trustworthy AI regulation, and ask how the law can be tailored to their capabilities. After laying technical foundations, the legal part of the paper proceeds in four steps, covering (1) direct regulation, (2) data protection, (3) content moderation, and (4) policy proposals. It suggests a novel terminology to capture the AI value chain in LGAIM settings by differentiating between LGAIM developers, deployers, professional and non-professional users, as well as recipients of LGAIM output. We tailor regulatory duties to these different actors along the value chain and suggest strategies to ensure that LGAIMs are trustworthy and deployed for the benefit of society at large. Rules in the AI Act and other direct regulation must match the specificities of pre-trained models. The paper argues for three layers of obligations concerning LGAIMs (minimum standards for all LGAIMs; high-risk obligations for high-risk use cases; collaborations along the AI value chain).

(注7) 2023.2.10 Blog  Sabrina Küspert , Nicolas Moës , Connor Dunlop共著「The value chain of general-purpose AI」:A closer look at the implications of API and open-source accessible GPAI for the EU AI Act

(注8) ニコラス氏は、地政学、経済、産業に対する汎用人工知能 (GPAI) の影響に焦点を当てたトレーニングを受けたベルギーの経済学者です。 彼は 独立系NPO“The Future Society” のエグゼクティブ・ ディレクターを務めており、組織の管理、戦略、ステークホルダーとの関わりに取り組んでいる。 彼は以前、AI を取り巻く法的枠組みにおけるヨーロッパの発展を研究および監視しており、EU AI 法の起草とその施行メカニズムの構築に積極的に取り組んでいる。

 ニコラス氏は、国際標準化機構の SC42 および CEN-CENELEC JTC 21 の人工知能委員会のベルギー代表として、AI 標準化の取り組みにも携わっている。 ニコラス氏は、OECD.AI 政策監視機関の AI インシデントおよびリスクと説明責任に関する作業部会の専門家である。 The Future Society に入社する前は、ブリュッセルに本拠を置く経済政策シンクタンクブリューゲルEU のテクノロジー、AI、イノベーション戦略に携わっていた。 彼の出版物は AI と自動化の影響に焦点を当てていますが、世界貿易と投資、EU と中国の関係、大西洋を越えたパートナーシップに関する研究も行っている。

(注9) Alex C. Engler氏 は、Senior Policy Advisor, AI @ White House Office of Science and Technology Policy

ブルッキングス研究所のガバナンス研究フェローであり、人工知能と新興データ技術が社会とガバナンスに与える影響を研究している。

(注10)Andrea Renda氏はSenior Research Fellow and Head of Global Governance, Regulation, Innovation and the Digital Economy (GRID) - Centre for European Policy Studies.

(注11) PROVISIONAL AGREEMENT RESULTING FROM INTERINSTITUTIONAL NEGOTIATIONS暫定合意の原本(全245頁)

暫定合意の主題:人工知能に関する調和のとれたルールを定める規則案の提案(人工知能法案) および特定の欧州連合の立法行為の改正(Proposal for a regulation laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union legislative acts) 2021/0106(COD)

(注12) 許容できないリスクをもたらすため、禁止されているAIシステム(第5条)

公的にアクセス可能な空間における法執行の目的での「リアルタイム」リモート生体識別システムの使用。ただし、そのような使用が以下の目的の1つに厳密に必要な場合を除く。

欧州基本権機関(European Union Agency for Fundamental Rights:FRA)のRemote biometric identification for law enforcement purposes: fundamental rights considerations参照。

(注13)ディープフェイクとは、「ディープラーニング」と「フェイク」を組み合わせた造語で、AI(人工知能)を用いて、人物の動画や音声を人工的に合成する処理技術を指す。もともとは映画製作など、エンターテインメントの現場での作業効率化を目的に開発されたものである。しかし、あまりにリアルで高精細であることから、悪用されるケースが増えたことで、昨今ではフェイク(ニセ)動画の代名詞になりつつある。(docomo busuiness Watchから抜粋)

(2024.3.8 追加)米国連邦取引委員会は2 年以上にわたる協議と検討を経て、2024 年 2 月 15 日、連邦取引委員会 (以下、「FTC」 または「委員会」という) は、「商業に関わる、または商業に影響を及ぼす」問題において政府機関または企業のなりすまし(impersonation)を禁止する規則を最終決定した。なお、AIの進歩により、最終決定された規則では不十分になったという。 そこでFTCは、「直接的または暗示的に、商取引において、または商取引に影響を与える個人を実質的かつ虚偽に装うこと」、または「直接的または暗示的に、重大な虚偽の表示をすること」をFTC法違反とする補足規則案を提案している。

 AI を利用したなりすましは、多くの場合、「ディープフェイク(deepfakes)」、つまり、個人が実際に言ったり行ったりしていないことを言ったり行ったりしているかのように見せる加工された画像、ビデオ、または録音の作成を通じて行われる。 最近の AI ツールの普及により、ディープフェイクの作成はかつてないほど簡単になり、規制当局や専門家は、ディープフェイクがすでにリベンジポルノの作成、誤った情報の拡散、消費者への詐欺に使用されているのではないかと懸念している。

(米国FTCの政府機関または企業のAIなりすまし(impersonation)を禁止する規則については、別途取りまとめる予定)

*************************************************************::

Copyright © 2006-2024 芦田勝(Masaru Ashida).All Rights Reserved.You may reproduce materials available at this site for your own personal use and for non-commercial distribution.