米大統領令(EO: Executive Order 14110)の具体的内容と意義およびそれに基づく責任の履行を支援するためNIST「情報提供依頼文書 」の具体的内容

 筆者は、12月6日の本ブログで2023年10月30日の大統領令(EO: Executive Order 14110)(以下、「EO」という)を受けたNISTの具体的行動につき「 NISTからこのほど公開された「 NIST SP 800-226 草案」および「差分プライバシー保証を評価するためのガイドライン草案」に対するパブリックコメントの背景と意義」を取り上げた。

 しかし、執筆後もいまいち大統領令(EO)のファクトシートも含め真の目的や商務省の規則案のとりまとめ期限など疑問点が残されていた。その内容を補完する意味で今回のブログで補筆するとともに、後段でNISTが2024年2月2日を期限として発布した「情報提供依頼文書 (Request for Information (RFI) )」の概要について解説を試みる。

 また、本ブログでは、わが国では詳しく論じられていない米国「国防生産法(Defense Production Act of 1950 :DPA)」の意義と最新動向にも言及した。

 なお、今回のブログの内容は12月6日の筆者ブログと重複する部分が一部あるが、Kilpatrick Townsend & Stockton LLPの和文解説と併せ読まれたい。

Ⅰ.大統領令(EO: 14110)の具体的内容の解析

  JD Supra, LLCの「The highly-anticipated US Executive Order on artificial intelligence: Setting the agenda for responsible AI innovation」を要約しつつ仮訳する。

 このEOは、多くの点で AI に関するこれまでのバイデン政権の行動を超えている。 この広範囲かつ堅牢な大統領令は、AI を規制するために既存の当局を利用することを想定して、米国の行政部門および政府機関 (機関) に、①標準、②フレームワーク、③ガイドライン、④最善実践内容を開発するよう指示した (また、独立機関にも同様に奨励する)。 また政府機関は、AI の責任ある使用に関係するほぼすべての連邦法、規則、政策に対して具体的な措置を講じる必要があるとする。

 EOは、AI の使用から得られる利点を認識する一方で、国家安全保障、重要インフラ、プライバシーの被害から、詐欺、差別、偏見、偽情報への懸念、労働力の追放と競争の抑圧に至るまで、AI の潜在的な誤用に関連する多数の既知のリスクを強調している。

 さらにEOは、イノベーションを促進する必要性と、社会的危害から保護し、AI の安全で確実な開発と使用を確保するための効果的なガードレールを構築する必要性との間のバランスをとるように設計された一連の原則、基準、優先事項の推進を緊急に求めている。

 おそらく、短期的にこのEOの最も重要な要素は、連邦商務省が2024129日(つまり、20231030日の命令から90日以内)までに導入するという要件であり、民間部門の開発者に対する報告要件を拘束するものである。 AI レッドチーム・テスト(AI red-team testing)(注1)におけるモデルのパフォーマンスの結果を連邦商務省に報告するための最も強力な AI モデルの開発を求めるものである。

  また、連邦商務省は、悪意のある用途に使用される可能性のある潜在的な機能を備えた AI モデルに関して、サイバーを活用した活動につき外国人との特定の取引に関する規則案を発行する必要がある。

 重要な点は、このEOの中核原則の 1 つは、AI が世界的なテクノロジーであり、国際同盟国と協力して AI のリスクを管理し、その利点を最大限に発揮するための枠組みを開発する強い必要性があることを認識していることである。

 事実、米国は、時間をかけてより世界的な枠組みを構築する取り組みにおいて他国と協力しながら、独自の初期基準と保護措置を開拓することでリーダーシップの役割を果たそうとしている。ただし、よりグローバルなアプローチで牽引力を達成できるかどうかは不明である。

 現在、米国は特定の国内ルールと基準を採用することで、米国は世界的な AI ルールを奨励し、具体化しようとしている一方で、AI エコシステムの特定の関係者が米国の AI ガバナンスの影響を避けるために活動をオフショアに移そうとするリスクをある程度想定している。

1.安全で信頼性の高い AI の確保: デュアルユース基盤モデルとは

 このEOの最も注目すべき拘束力のある構成要素の 1 つは、「デュアルユース基盤モデル(dual-use foundation models)」を開発する民間企業に報告要件を課すことである。EOは一般に、このモデルを米国の国防と重要なインフラに重大なリスクをもたらす任務を遂行するため広範なデータで訓練された強力な自己監視型 AI と定義している。 (EOセクション 3(k)参照)

 より具体的には、このEOに基づき、連邦商務省は、2024 1 29 日までに、二重用途の基礎モデル(dual-use foundation models)(筆者ブログ(注5)参照)の開発を計画している企業に対し、連邦政府に以下の項目につき情報、報告書、または記録を継続的に提供することを義務付けなければならない。

① 高度な脅威に対するそのようなトレーニングの完全性を保証するために講じられる物理的およびサイバーやセキュリティ保護を含む、そのような二重用途の基礎モデルのトレーニング、開発、または生産に関連する進行中または計画中の活動内容。

② そのような二重用途の基礎モデルの重要性の所有権と保有、およびそれらのモデルの重要性を保護するために講じられた物理的およびサイバー・セキュリティ対策。

  NIST によって開発されたガイダンスに基づく、関連する AI レッドチーム ・テストにおけるかかるモデルの実績の結果、およびそのような NIST ガイダンスの開発前に、特定の種類の指定されたリスクに関して企業が実施したレッドチーム・ テストの結果 (例:非国家主体による生物兵器の開発、取得、使用への参入障壁の低下、ソフトウェアの脆弱性の発見、現実または仮想のイベントに影響を与えるソフトウェアまたはツールの使用、自己複製または伝播の可能性、および安全目標を達成するための関連措置)。 (セクション4.2(a)参照)

 また連邦商務省は、潜在的に大規模な「コンピューティング・クラスター」(注2)の取得、開発、または所有に関して、そのようなクラスターの存在と場所、各クラスターで利用可能なコンピューターの能力の量を含む、企業、個人またはその他の組織や団体による報告を義務付けなければならない。

 さらに、EOは連邦商務省に対し、米国のサービスとしてのインフラストラクチャーIaaS(注3)プロバイダー(つまり、米国の大手クラウド・プロバイダー)の一部の取引に関して、外国人、特に IaaS 製品の外国再販業者との取引につき多数の報告義務と関連義務を課す規則案を2024129日までに提案することを求めている。 (セクション4.2(c)参照)

特に、提案されている規則案では、米国の IaaS プロバイダーに次のことを義務付ける。

(1) 外国人がそのようなプロバイダーと取引して、悪意のあるサイバー活動に使用される潜在的な機能を備えた大規模な AI モデルをトレーニングする場合は、商務省長官に報告書を提出する。

(2) 米国 IaaS プロバイダーに対し、米国 IaaS 製品の海外再販業者がその製品を提供することを禁止することを要求する。ただし、再販業者が米国 IaaS プロバイダーに報告書を提出し、そのプロバイダーが商務省に提出する必要がある場合は、この限りではない。 このような規則案がいつ拘束力を持つようになるかはまだ不明であるが、EOが規則案の提案を義務付けているという事実は、それらの規則が2024130日に発効しない可能性が高いことを示している。

 疑いもなく、留保中の商務省規則は本質的に画期的なものとなるであろう。 現時点で以下のいくつかの点に注意することが必要である。

(1) EOは、米国の「改正国防生産法(Defense Production Act of 1950 :DPA)」(注4) (注5)を発動し、大統領に国防と重要インフラの保護に関する一定の権限を与える。 DPA は歴史的に、防衛の優先順位と資源の配分を確立するために、戦時中および平時において散発的に発動されてきた。この制度は、最近の新型コロナウイルス感染症危機において、ワクチンや個人用保護具の開発契約に優先順位を与え、サプライチェーンの問題に対処するために、より広範囲に利用された。

 (2) AI の報告要件を作成するためにここで使用することは、DPA の下では本質的に新しいものであり、DPA は通常、政府の契約履行における優先順位を作成するために使用される。これと 対照的に、ここに関与している企業は主に政府による利用ではなく、民間部門向けに AI を開発している。 それにもかかわらず、DPA は範囲が広く、連邦裁判所は実際にはそのような国家安全保障法の範囲を狭く解釈することを好まない。さらに、他の連邦法もそのような報告要件をサポートする可能性があり、連邦議会は現在、AI に関する法的枠組みの再構築に取り組んでいる。

(3) 連邦商務省が報告要件を発行したら、企業等はその全範囲と適用について綿密に検討する必要がある。「企業」やさまざまな「外国法人」の対象範囲に関する多数の定義により、米国企業によるオフショア AI 開発に適用されるかどうか、米国で AI モデルの開発を請け負う外国企業が要件の対象となるかどうかなどが決められることになる。

(4) 重要な点は、今回のEOには、新しい報告要件(セクション4.2(b)参照)の対象となる AI モデルおよびクラスターの技術的条件の重要な初期定義がいくつか含まれており、連邦商務省が規則を定義して定期的に更新するまで、これらの初期の事実上のそのような独自のセット標準を使用するよう指示していることである。

(5) AI モデルの基準点としての指定された一定量のコンピューティング能力の定義は特に注目に値し、AI モデルが世界中で広く利用可能になり、より強力になるにつれて、時間の経過とともに進化することが予想される。この種の定量的基準は、コンピューターの輸出規制の導入のために商務省が長年採用してきた基準を彷彿とさせる。

(6) 最後に、広範なレッドチーム・テストの「結果」を企業に提出させるという要件は、間違いなくそのような材料を本質的に非常に独占的なものと見なす企業の敏感さを高めるであろう。 あきらかに商務省は、そのような情報の機密性を維持し、連邦政府内での送信を制限するための措置を講じることを検討する必要があろう。 (セクション4.2(a)(i)(C)参照)

 2.AI テクノロジーの安全性とセキュリティの確保

 米国人の安全とセキュリティを保護することを目的として、EOのこのセクションでは、以下のとおり、AI の使用と開発の保護に数十の省庁が関与する広範な要件を定めている。

ガイドラインと基準の策定 : このEOは、安全、安心、信頼できる AI システムのためのガイドラインと最良実践を確立するよう、NIST を通じて行動すべく商務省長官に任務を与える。 また商務省は、サイバー・セキュリティやバイオ・セキュリティの分野など、AI が害を及ぼす可能性のある機能に焦点を当てて、AI の機能を監査および評価するためのガイダンスとベンチマークを開発する必要がある。 この取り組みの一環として、NIST は、ここで要約した AI リスク管理フレームワークと安全なソフトウェア開発フレームワークに付随するリソースを開発するよう指示されている。(注6) (セクシヨン1参照)

② 化学的、生物学的、放射線学的または核のリスク (Chemical, Biological, Radiological or Nuclear Risks :CBRN) :

 AI が生物兵器などの CBRN の脅威を促進するために悪用されるリスクをより深く理解し、軽減するために、エネルギー省は連邦政府内の幅広い専門家と協議するよう指示されている。 政府および民間の AI 研究所、学界、第三者は、CBRN 脅威の開発に AI が悪用される可能性を評価し、これらの脅威に対抗するための AI の適用を検討し、EO発令の180 日以内に大統領に報告書を提出せねばならない。 (セクション 4.4参照)

③ サイバー・セキュリティと重要インフラ: このEOは、重要インフラに対する権限を持つ各機関の長に対し、AI の使用により重要インフラがより脆弱になるかどうかなど、重要インフラでの AI の使用に関連する潜在的なリスクすなわち障害、物理的攻撃、サイバー攻撃等の評価を 国土安全保障省(DHS) に提供するよう指示している。 また独立機関もこの取り組みに貢献することが奨励されている。

 またDHS は、インフラストラクチャの所有者および運用者が使用するためのセキュリティ・ガイドラインを開発する必要があり、DHS は関連機関の長と協力して、必要に応じて規制またはその他の措置を通じてそのようなガイドラインを義務付ける措置を講じる必要がある。 さらに、国防総省国土安全保障省(DHS)は、米国政府の重要なソフトウェア、システム、ネットワークの脆弱性を発見して修復するために、大規模な言語モデルなどの AI システムをテストする運用パイロット・プロジェクトを実施する必要がある。 (セクション 4.3参照)

④ AI によって作成または変更された合成コンテンツ(Synthetic Content Created or Modified by AI )(注7) AI システムによって生成された合成コンテンツに対する透明性を向上させ、社会の信頼を高めるため、またデジタル・ コンテンツの信頼性と出所を確立するために、EOは商務省に①コンテンツの認証、②その出所の追跡、および③透かしの使用などの合成コンテンツの検出とラベル付けの実践につき標準、ツール、手法を特定することを義務付けている。 (セクション5参照)

⑤ プライバシーの保護: AI によって潜在的に悪化するプライバシー・ リスクを軽減し、個人情報やデータの悪用を防ぐために、EOは 連邦予算管理局(OMB) 局長に対し、政府機関が入手する市販情報 (commercially available information :CAI) の種類、特にデータから入手した CAI を評価する任務を課している。 また、連邦機関等に潜在的なガイダンスを通知するために、CAI がどのように収集、使用、配布、廃棄されるかを評価する。 政府機関が 「2002 年電子政府法(E-Government Act of 2002)」におけるプライバシー条項をどのように実施するかに関する現在のガイダンスの改訂に関する意見を求める情報要求依頼文書 (RFI) を発行する必要がある。連邦政府機関はプライバシー強化テクノロジーの有効性を評価する必要があり、エネルギー省長官はプライバシー研究とプライバシー強化技術に取り組む研究調整ネットワークを創設するという指示を受ける必要がある。 (セクション9参照)

3.労働者のサポート

 AI の機能が進化するにつれ、AI 関連の労働力の混乱に対する懸念が高まっている。このEOは、大統領経済諮問委員会(Council of Economic Advisers)(注8)に対し、AIが労働市場に及ぼす影響についてEO発令後180日以内に大統領への報告書を作成するよう命じている。

 一方、労働省長官は、AI関連の労働力の混乱に対処するために連邦政府がとるべき必要な措置を評価し、AIの導入によって職を追われた労働者を支援する政府機関の能力を分析した報告書を大統領に提出するよう指示されている。この報告書は、失業保険など、雇用の混乱に直面している労働者を支援するために設計された現在および以前の連邦プログラムが、将来起こり得るAI関連の混乱に対処し、潜在的な法的措置に対処するためにどのように利用できるかを評価する必要がある。

 EOはさらに、労働省長官が労働組合や労働者と協議して、雇用主が従業員の健康に対するAIの潜在的な弊害を軽減するために使用できる諸原則と最良実践を開発し、公表することを求めている。

 この 諸原則と最良実践は、とりわけ、透明性、仕事への従事、管理、労働者保護法で保護される活動など、雇用主による労働者に関するデータの AI 関連収集と使用が労働者に及ぼす影響をカバーする必要がある。またEOは、労働省長官に対し、AIによって業務が監視または強化されている従業員に対し、労働時間に対する報酬を確実に支払うことを保証することを義務付けている。 (セクション6参照)

4.公平性と公民権の推進:

 AI の無責任な使用がいかに違法な差別やその他の危害につながる可能性があるかを示す強力な証拠があることを受けて、EOは司法省長官に対し、刑事司法制度における AI の使用に関する報告書を大統領に提出することを義務付けている。

 また、量刑(sentencing)、仮釈放(parole)、保釈(bail)、警察の監視(police surveillance)、刑務所の管理ツール(prison-management tools)、法医学分析(forensics)などの分野での AI の使用に関するベスト プラクティス、保護措置、および適切な制限を推奨している。

 政府機関は、アルゴリズムによる差別を含む、自動化システムの使用における差別を防止し、対処するために、公民権および自由人権局および当局を活用するよう指示されている。 EOは連邦保健福祉省 (HHS)に対し、不当な拒否を評価するため、(ⅰ)州や地方自治体による公共利益の分配におけるアルゴリズム・システムの使用、(ⅱ)人間の審査員に拒否を訴えるプロセス、そして(ⅲ)アルゴリズム・システムが公平かつ公正な結果を達成するかどうかに対処する計画を公表するよう求めている。 (セクション7参照)

5.イノベーションと競争の促進

 AI人材を米国に誘致するため、EOは国務省長官とDHSに対し、ビザ手続きを合理化し、海外で人材を見つけるプログラムを作成し、AIとその他の重要なテクノロジーや新興テクノロジーにより専門家の移民への経路を近代化する政策変更を開始するよう指示している。

  またEOは、国家科学財団(NSF) に対して、AI 関連の研究リソースとツールを作成および配布することにより、国家 AI 研究リソースを実装するパイロット プログラムを開始するよう指示している。 労働省長官は、資格のある候補者を必要とする AI および STEM(science, technology, engineering and math :STEM) の仕事に関する情報を要求する RFI を公開するよう指示している。 (セクション 5.2(a)(i)参照)

 その他の規定には以下が含まれる

① 国立AI研究機関と機能機関の創設NSF は、AI 関連業務専用の NSF 地域イノベーション エンジンを 1 つと、少なくとも 4 つの新しい国立 AI 研究機関を設立し、エネルギー省と協力して科学者向けの訓練プログラムを強化し、2025 年までに 500 人の新しいAI研究者を訓練することを期待している。 (セクション2(a)(ii)-(iii)、(b)参照)(注9)

② 気候変動の緩和 : エネルギー省長官NISTリリース、AI が電力網の計画、投資、運用を改善する方法に関する報告書を発表するよう指示している (セクション2(g)参照)

③ 特許と商標 米国連邦特許商標庁(US Patent and Trademark Office)に、発明のプロセスにおける発明者の地位(inventorship)シップおよび生成 AI を含む AI の使用に対処する特許審査官および出願人向けのガイダンスを発行するよう指示する。 (セクション2(c)(i)参照)

著作権 : 米国連邦著作権局(US Copyright Office)は、AI を使用して制作された作品の保護範囲と AI トレーニングにおける著作権で保護された作品の扱いに対処するため著作権と AI に関連する潜在的な行政措置について大統領へ勧告を作成するよう指示されている。 (セクション2(c)(iii)参照)

6.連邦政府による AI の利用の推進

  AI には、政府機関の成果を出す能力を向上させる可能性がある。 EOは、政府機関による AI の効果的かつ適切な使用を強化し、AI によるリスクを管理するためのガイダンスを作成するための省庁間評議会を組織するよう OMB 長官に指示することにより、連邦政府全体での AI の調整された使用を推進させようとしている。

 各政府機関は、自機関による AI の使用を調整し、人々の権利や安全に影響を与える AI の使用に必要なリスク管理慣行を実装するために、最高AI責任者(Chief Artificial Intelligence Officer)を任命する必要がある。

 また、「生成型 AI 」の責任ある安全な使用を推進するため、政府機関は、特定のリスク評価とガイドラインに基づく特定の生成型 AI サービスへのアクセスの制限、トレーニング、適切な利用規約の交渉など、適切な保護措置、ベンダー措置を講じる必要がある。 さらにEOは、連邦政府に対し、連邦機関の優秀な AI 人材を増やすよう指示している。 (セクション10参照)

7.消費者、医療患者、学生:

 EOは、効率的な方法でリソースへのアクセスと手頃な価格を強化し、詐欺や差別から国民を守る方法で、福祉サービス、医療、教育分野における AI の開発と使用させること義務付けている。独立規制機関は、その裁量により、詐欺や差別から消費者を保護するために追加の措置を講じることも奨励されている。(セクション8参照)

8.海外における米国のAIリーダーシップの強化

 AIの課題と可能性に対処する世界的な取り組みにおける米国のリーダーシップを強化するため、国務省長官は、国際同盟国やパートナー国を奨励するなど、リスクを管理しAIの利点を活用するための強力な国際枠組みを確立する取り組みや米国企業が行っているものと同様の自主的な取り組みをサポートするよう指示している。

 また、商務省長官は、AI 開発のための責任ある世界的な技術基準を推進し、世界的な関与の計画を確立するよう指示されている。 重要インフラに対する世界的な AI リスクに対処するため、DHS は、重要インフラ システムへの AI の組み込みや AI の悪意のある使用によって生じる潜在的な重要インフラの混乱に対応し、回復する能力を強化するため、国際同盟国やパートナー国との取り組みを主導するよう命じられている。

Ⅱ.米国商務省の国立標準技術研究所 (NIST) 20231030日の大統領令(EO: Executive Order 14110)に基づく責任の履行を支援するため発出された「情報提供依頼文書 (Request for Information (RFI) )」の意義と概要

 12月19日、筆者の手元に届いたNISTリリースは、米国商務省の国立標準技術研究所 (NIST) は、人工知能(AI)の安全、安心、信頼できる開発と使用に関する2023年10月30日の大統領令(EO: Executive Order 14110)に基づく責任の履行を支援するため情報提供依頼文書 (Request for Information (RFI) ) (注10) 202422日を期限として発布したという内容であった。

 以下で、補足しながら仮訳する。

 同大統領令(EO:14110)は、NIST に対し、①評価やレッドチーム演習(red-teaming)に関するガイドラインを作成すること、②コンセンサスに基づく標準の開発を促進すること、さらに③AIシステムを評価するためのテスト環境を提供するよう指示している。これらのNISTガイドラインとインフラストラクチャは、AI コミュニティが安全かつ信頼できる AI の開発と責任ある使用を支援するリソースとなる。

 米国商務省長官ジーナ・M・ライモンド(Gina M. Raimondo)は「バイデン大統領はAIは我々の世代を決定づけるテクノロジーであり、私たちはAIのリスクから人々を守りながら、AIの力を永久に活用する義務があると明確に述べている。今回の大統領令の一環として、商務省は産業界、学界、市民社会などからフィードバックを求めており、米国が責任ある分野で世界をリードし続けることを可能にするAIの安全性、セキュリティ、信頼性に関する業界標準を開発できるようにする。 この急速に進化する技術の開発と利用を目指している」と述べた。

Gina M. Raimondo 氏

 NIST情報提供依頼文書(RFI)への回答は、AI テクノロジーに関連する機能を評価し、大統領令で要求されているさまざまなガイドラインを開発する NIST の取り組みをサポートする。 RFI は特に、AI のレッドチームの組成、生成型 AI のリスク管理、合成コンテンツのリスクの軽減、AI 開発のための責任ある世界的な技術標準の推進に関連する情報を求めている。

 標準技術次官兼NIST所長のローリー・E・ロカシオ(Laurie E. Locascio)は、「大統領令に定められた目標に向けて取り組みを開始する中で、AIの測定と評価についての理解を進めるためにコミュニティとの関わりを強化することを楽しみにしている。私は、AI の安全性と信頼性の測定と実践を進めるために、この情報リクエストを通じて、より広範な AI コミュニティにNISTの有能で献身的なチームとの連携を呼びかけたいと考えている。 われわれの生活の非常に多くの分野に影響を与える可能性のある AI について、強力かつ公平な科学的理解を確立するためには、あらゆる視点を収集することが不可欠である」と述べた。

Laurie E. Locascio氏

 サイバー・セキュリティとプライバシー、合成核酸配列決定(synthetic nucleic acid sequencing) および最小限のリスク管理慣行の支援機関による実施に関連する大統領令における NIST へのその他の割り当ては、この RFI とは別に扱われる。 大統領令に基づく NIST の任務と計画に関する情報、および一般からの意見を求めるさらなる機会については、NIST の Web サイトを参照されたい。

*******************************************************

(注1) レッドチーム(red team)とは、ある組織・団体等のセキュリティの脆弱性を検証するためなどの目的で設置された、その組織とは独立したチームのことで、対象組織に敵対したり、攻撃したりといった役割を担う。主に、サイバー・セキュリティ、空港セキュリティ、軍隊、または諜報機関などにおいて使用される。レッドチームは、常に固定された方法で問題解決を図るような保守的な構造の組織に対して、特に有効である。(Wikipedia から抜粋)

(注2) 「大規模コンピューティング・クラスタ(large-scale computing cluster)」は、EOの下では定義されていない。しかし、EOのセクション4.2(b)では、「デュアル-ユース基盤モデル(dual-use foundation model)」および「大規模コンピューティング・クラスタ(large-scale computing cluster)」の技術的条件が、近日中に提示されることが明らかになっている。しかし、EOのセクション4.2(b)では、そのような技術的条件が定義されるまでは、商務長官(Secretary of Commerce)は、以下の報告要件の遵守を要求しなければいけないことも明確にしている。(i) 1026の整数演算または浮動小数点演算を超える計算能力を用いて学習されたモデル、または主に生物学的配列データを使用し、1023の整数演算または浮動小数点演算を超える計算能力を用いて学習されたモデル;および(ii) 単一のデータセンターに物理的に同居するマシンのセットを有し、100 Gbit/s以上のデータ・センター・ネットワーキングによって推移的に接続され、AIの学習用に毎秒1020の整数演算または浮動小数点演算を行う理論上の最大計算能力を有するコンピュータ・クラスターである。(Kilpatrick Townsend & Stockton LLPの解説から抜粋)

(注3) サービスとしてのインフラストラクチャ、または略してIaaSは、クラウドコンピューティング・ベンダーが顧客に代わってインフラストラクチャをホストする場合です。ベンダーは、インフラストラクチャを「クラウド」でホストします。–つまり、さまざまなデータセンターでホストします。顧客はインターネット経由でこのクラウドインフラストラクチャにアクセスします。Webアプリケーションの構築とホスト、データの保存、ビジネスロジックの実行、または従来のオンプレミスインフラストラクチャで実行できる他のすべての操作に使用できます。しかし、多くの場合、より柔軟性があります。

クラウドコンピューティングの主要なモデルとは?

クラウドコンピューティングの3つの主要なサービスモデルは次のとおり。

①サービスとしてのインフラストラクチャ(IaaS

②サービスとしてのプラットフォーム(PaaS

③サービスとしてのソフトウェア(SaaS

(CLOUDFRARE解説から抜粋)

(注4) 「国防生産法」は、国防に必要な資材やサービスの供給に関して、大統領に国内産業界を統制できる権限を与えている。最近でも、トランプ前政権が新型コロナウイルス感染拡大を受けて、国内自動車メーカーなどに人工呼吸器の生産を要請するなどの活用例がある。バイデン大統領は3月31日に石油戦略備蓄の追加放出(2022年4月1日記事参照)を発表した会見で、国防生産法の活用にも触れた。大統領は「電気自動車(EV)や再生可能エネルギーの貯蓄をする蓄電池に使われるリチウムやグラファイト、ニッケルなど重要鉱物の国内サプライチェーンを確保するため、国防生産法を使う。未来の力の源泉を中国やその他の国に長く依存していた時代を終わらせる必要がある」と発言している。

 米国のジョー・バイデン大統領は2022年3月31日、1950年国防生産法に基づいて、国防長官に、大容量蓄電池などに使用するリチウムなど「重要鉱物の国内生産増に向けた取り組みを指示する覚書」に署名した。(JETRO解説から抜粋)

  一方、わが国で「国防生産法」の考えにつき国会議員はどう考えているのか。衆議院議員 高市早苗氏コラム「日本版『国防生産法』検討の必要性」更新日:2021年05月5日)が参考になろう。

(注5) 国防生産法(50 USC Ch. 55: DEFENSE PRODUCTION From Title 50—WAR AND NATIONAL DEFENSE)の原文

(注6) NIST, Secure Software Development Framework, NIST, https://csrc.nist.gov/Projects/ssdf参照。

(注7) Synthetic Content Created or Modified by AI参照。

(注8) アメリカ合衆国大統領に経済政策の助言をする大統領府の機関。第2次世界大戦後の平時における完全雇用の実現を目指し 1946年に制定された雇用法に基づいて設立された。主としてマクロ経済運営,経済情勢について大統領に助言し,予算編成の基礎となる経済見通しを作成する。また毎年,大統領経済報告とともに提出される大統領経済諮問委員会年次報告を作成する。委員長を含めて 3人の委員で構成され,アシスタント・スタッフとして 20人程度の気鋭のエコノミストが起用される。委員長は閣議,経済政策委員会 EPC,国内政策委員会 DPCなどの主要な会議に大統領経済諮問委員会代表として出席する。(「コトバンク」から抜粋)

(注9) 筆者の手元にあるNSFからAIに関するfunding サイト参照。

(注10) RFIはRequest For Informationの略で、日本語では「情報提供依頼」または「情報提供依頼書」と訳されます。 候補となりそうなシステム開発会社に対して、技術情報や製品情報の提供を依頼するための文書 のことを指します。(IT調達ナビ・サイトから抜粋)

******************************************************

Copyright © 2006-2023 芦田勝(Masaru Ashida).All Rights Reserved.You may reproduce materials available at this site for your own personal use and for non-commercial distribution.