マルチユース技術に関する米国の政策 ~第1回 AI~

2023年8-9月号

青木 崇 (あおき たかし)

株式会社日本政策投資銀行業務企画部所属/政策研究大学院大学政策研究院 シニアフェロー(出向中)

1. はじめに
2. 米国の政策形成過程の解説
3. 大統領令、政府機関報告書、シンクタンク報告書の全体を俯瞰したポイント
4. 考 察
5. 参考資料(大統領令、行政の動き、政府機関報告書、シンクタンク報告書、その他文書)

1. はじめに

ロシアのウクライナ侵略にみられるように、国際情勢は大きく変化、複雑化し、地政学的な緊張も高まるなか、国民生活、経済活動に対するリスクは、感染症、テロ、サイバー攻撃といったさまざまな形で顕在化している。そうした脅威は、近年加速的に進化するテクノロジーにより、影響の範囲が一層拡大している。テクノロジーは広く公的にも民的にも利用用途が広がっており(マルチユース)、世界のテクノロジーの進化を多面的に理解することは重要であろう。
本報告では、最先端のマルチユース技術(公的にも民的にも利用可能な技術)の代表的なものであるAI、5G、バイオテクノロジーに焦点を当て、我が国のテクノロジー戦略策定の一助となるように、世界の技術開発の大きな潮流を牽引する米国の政策を把握する。なお、本報告はシリーズでお伝えし、第1回は米国のAI政策を取り上げる。(第2回:5G、第3回:バイオテクノロジー)

2. 米国の政策形成過程の解説

米国の政策・戦略がどのような過程で決定され形成されるか、科学技術振興機構研究開発戦略センター(CRDS)の報告書を参考に、以下に確認する。

【大統領令(Executive Order)を頂点とした政策形成】

米国における科学技術・イノベーション活動は、上院、下院で構成される立法府において法案審議等の立法活動が行われ、法案が行政府に送られる。行政府の長である大統領によって法案の採択がなされ、採択された法案は大統領令(Executive Order)として発令される。大統領令に従い、各省庁は定められた期限以内に戦略を策定し、大統領に提出する。各省庁はその戦略をさらに詳細に落とし込み、具体的な戦術を策定し遂行する。また、政策形成にあたっては、立法府や行政府だけでなく民間の財団やシンクタンクなどの政策コミュニティが与える影響が大きい。
米国では科学技術行政を一元的に所管する省庁は存在せず、連邦政府の各省庁がそれぞれの所管分野に関して政策立案と研究開発を担う分権的な体制となっている。省庁横断的な政策調整は大統領府が行うが、大統領府の組織マネジメントについては大統領の裁量が大きく、同じ組織やポストであっても政権によって果たす役割に違いが生じることもある。予算と権限が分散する連邦政府内で科学技術政策の推進・調整役を担うのは大統領府の科学技術政策局(以下、OSTP(注1))である。OSTPは政府部内の調整とともに大統領への助言と科学に基づく政策形成の促進を本務としている。また、大統領府と各省庁の政策調整を目的として、大統領、副大統領、各省長官等から構成される国家科学技術会議(NSTC(注2))が大統領府に置かれ、OSTPが事務局となり閣僚レベルで意見調整を図る仕組みとなっている。NSTC下に設けられた委員会は、各種の省庁横断イニシアチブの調整や評価を行っている。

3. 大統領令、政府機関報告書、シンクタンク報告書の全体を俯瞰したポイント

AIに関する大統領令、政府機関の報告書、シンクタンク(CSET(注3)、CNAS(注4))の報告書につき、ポイントを3つのカテゴリー(基礎情報と課題認識、強化策、再考案)に整理した。

【基礎情報と課題認識】

(1)基礎情報

●AIは米国経済の成長を促進し、経済と国家の安全を強化し、生活の質を向上させるものである。
●AIの活用には国民の信頼を得ることが最も重要である。透明で責任があり、米国の価値観に沿って開発する計画を策定するよう連邦機関に求める。
●2021年、米国のAI政策が「National AI Initiative Act of 2020(以下、NAIIA)」として立法化された。このNAIIAに基づき、OSTPが主導し米国のAI研究開発における継続的なリーダーシップを確保するため、The National Artificial Intelligence Initiative(以下、NAII)が設立された。
●NAIIは、以下の6つの戦略的柱で構成される。

①イノベーション(AIの研究開発)、②信頼できるAIの推進、③教育とトレーニング、④インフラ、⑤アプリケーション(8つ:農業、金融、医療、COVID-19パンデミック対応、国家安全保障と防衛、科学、運輸、天気予報)、⑥国際協力

●2021年5月、国防副長官は、国防総省が2020年2月に採用した5つの倫理原則を強化した。この原則では、すべてのAIシステムは責任があり、公平で、追跡可能で、信頼でき、管理可能でなければならないとされる。
●エンジニアやプログラムマネージャーは、契約要件の設定やリスク管理プロセスの確立など、開発プロセスにおいて、複数の概念が混ざり合わないように焦点を絞った用語の定義が必要になる。

(2)課題認識

●第二次世界大戦以降初めて、米国の技術的優位性(経済力と軍事力のバックボーン)が脅威にさらされている。中国は、現在の傾向が変わらなければ、今後10年間でAIの世界的リーダーとして米国を追い抜く力、才能、野心を持っている。
●今日(2021年)、政府は熱心な競争相手との技術競争に勝つための組織化や投資を行っておらず、AI対応の脅威から防御し、国家安全保障の目的でAIアプリケーションを迅速に採用する準備もできていない。
●攻撃者はAIシステムを使用して、偽情報キャンペーンやサイバー攻撃を強化している。彼らは米国人に関するデータを収集して、個人を操作または強制するために、彼らの信念、行動、および生物学的構成のプロファイルを構築している。バイオセキュリティは国家安全保障政策の最優先事項であるべきである。
●人材不足は、クラウドベースの研究活動を採用および拡張する能力において、依然として重大な制限要因となっている。連邦職員の多くは、クラウドテクノロジーに精通しておらず、クラウドシステムに関する業界認定資格を持っている人はほとんどいない。
●今日のAI研究の多くは、大量のデータと高度な計算能力へのアクセスに依存している。これらは、十分なリソースを持つテクノロジー企業や大学の研究者以外の研究者には利用できないことが多い。この「アクセス格差」により、AIを活用して米国の大きな社会課題に取り組む能力が制限されている。

この課題を認識し、2020年のNAIIAにおいて、議会は、OSTPと協議して、全米科学財団(以下、NSF)に指示し、国家AI研究リソース(以下、NAIRR)のロードマップを作成するためのタスクフォースを設立する。NAIRRは、AI研究者と学生に計算リソース、高品質のデータ、教育ツール、およびユーザーサポートへのアクセスを大幅に拡大する共有研究インフラである。
広くアクセス可能なAI固有の研究サイバーインフラは、国家AI R&D戦略計画に沿って、上記の機会と課題を満たし、より強力で包括的な米国のAI R&Dエコシステムの構築に役立つ可能性がある。このビジョンは、最近の2022年のCHIPS and Science Actによって強化されている。これは、次世代グラフィックス処理ユニットから高密度メモリチップまで、高度なコンピューティングの開発を加速するための資金を充当し、AIを含む科学と工学の最前線における米国の多様な才能を積極的に活用するための投資を承認している。

●大規模なAI開発は、環境に影響を与える高レベルのエネルギーを消費する可能性がある。
●不十分なデータセットでトレーニングしたり、設計の狭いコンテキストの外で使用したりすると、AIシステムは信頼性が低く脆弱になることがよくある。AIシステムは、実験室の設定によってはうまく機能するが(時には人間よりも優れている)、実世界の変化する環境条件の下で劇的に失敗することがある。例えば、自動運転車は、状況によっては人間のドライバーよりも安全かもしれないが、自動化されたシステムまたは自律システムの人間のオペレーターは、自分自身が操作していたシステムの機能を誤解して事故につながったケースが起きている。
●競争圧力により、敵に先んじて新しいAI機能を配備したいという願望から、国家はテストと評価(T&E)を短縮する可能性がある。歴史的に、これらの圧力は戦争の直前と戦争中に最も強くなる。例えば、第一次世界大戦では、競争圧力が毒ガスの導入を加速させた可能性が指摘されている。最終的な影響は軍拡競争ではなく、これら圧力は安全でないAIシステムの展開につながり、事故や不安定性のリスクを高める。むやみな競争を避けるためには外交努力が重要である。

【強化策】

●国防総省(DoD)はAI対応の戦争に対応できない軍事システムから戦略的に撤退し、代わりに次世代の機能に投資する必要がある。
●米国は、人間だけが核兵器の使用を許可できるという既存の米国の政策を明確かつ公に確認し、ロシアと中国に同様の約束を求める必要がある。
●2026年までに年間320億ドルに達するように、AIの研究開発に対する非防衛資金を毎年2倍にし、国立技術財団を設立し、国立AI研究所の数を3倍にする。
●科学と工学の新しい分野での実験をサポートする開かれた知識ネットワークで構成される国家AI研究インフラを確立し、クラウドコンピューティングリソース、テストベッド、大規模なオープントレーニングデータ、およびAIへのアクセスを拡大する。また、連邦政府による商用クラウドの使用を検討する。
●AIの市場を創出し、地域のイノベーションクラスターのネットワークを形成することにより、商業競争力を強化する。
●米国国立標準技術研究所(以下、NIST)のドラフト「AIリスク管理フレームワーク(以下、AI RMF)」は、責任あるAIの主要な特性について、エンジニアと政策立案者に等しく役立つ用語で定義し、説明している。この用語は、責任あるAIに関する国防総省の5つの倫理原則とほぼ一致しているが、責任あるAIを実装する作業を行うためにエンジニア、オペレーター、および政策立案者全員が必要とする具体性を追加することで、国防総省のガイダンスを改善できる。NISTのAI RMFは定義が曖昧であるので、具体的に記載した方がよく、(CSETは)その案を提言する。
●CSETは、現在のAI評価アプローチの開発と妥当性、およびそれらを実装するためのツールとリソースの可用性と十分性を調査するために、「AI評価」というタイトルの新しい調査研究を開始した。例えば、米ドルが基軸通貨として成立しているのは、金融機関、政府、決済制度、保険制度、軍事力などさまざまなプレーヤーの個々の高い信頼性によって成り立っているからである。これらのうち、一つでも欠ければ成り立たない。同じことがAIにもいえる。多様なAIに適切に適用できる単純で万能の評価アプローチはない。新しいAIイノベーションにより、評価のニーズが変わる可能性がある。この調査研究は、将来のニーズに適応できる評価の基盤を提供するであろう。
●AI評価プロセスの進化と採用は、米国の安全保障と経済的繁栄の両方に影響を与える。それらの品質が劣っていたり、不均一に採用されていたりすると、AIの開発と主要セクター全体でのスケーリングが妨げられるだけでなく、有害なAIイベントの数が増加したり、経済に厄介な負担をもたらしたりする可能性さえある。
●AI評価は、パートナーの政府や組織と連携して、さまざまなAI製品にわたって実行可能である必要があり、敵対者と比較して国家の競争力を妨げる可能性のある欠陥を作成してはならない。これらの作業は一朝一夕にできるものではなく、数十年という時間がかかるものであると認識しなければならない。
●戦争の将来の特徴を形作る可能性がある。すでに、StarCraftやDota 2などのリアルタイムコンピューター戦略ゲームをプレイしているAIエージェントは、超人的な攻撃性、精度、協調性を示している。
●これらのリスクを軽減し、国際的な安定の促進に向けて、不測の戦争を防止するためにすべての国が共有する利益に基づいて構築された信頼醸成措置(Confidence-Building Measures:以下、CBM)の使用を深めるべきである。
●AIを軍事に使うなら、必ず人間が「判断のループ」に入ることが重要である(Human in the loop)。

【再考案】(CNASの提言)

●AIで中国に先んじるためには、米国は中国と協力する必要がある。米国にとって最善の競争戦略は、問題のある関係を断ち切りながら、人的才能やコンピューティングハードウェアなど、米国が利益を得る分野で中国との関係を維持することである。
●ワシントンによる規制の強化は、行き過ぎのリスクがある。米国の技術的リーダーシップを維持するために、中国人人材の米国への流れを維持し、米国のハードウェアへの依存を強化する必要がある。
●AIを研究している中国の優秀な学部生の半数以上が米国の大学院に来ている。そして博士号を取得するために米国に移住する中国の学部生の90%以上が、卒業後も米国に滞在している。中国の才能の最大の受益者は中国ではなく、米国である。
●AI研究のフロンティアがChatGPTのような、より計算集約的なAIモデルに移行するにつれて、米国は中国に対して優位性を持つ。世界で最も先進的なチップは米国で製造されていないが、米国の技術を使用して製造されている。米国政府はこの事実を利用して、2020年にファーウェイの5Gチップへのアクセスを遮断し、同社のグローバル5Gビジネスを壊滅させた。
●これらの規制は、最先端のAIモデルを訓練する中国企業の能力を制限する可能性があるが、一方でチップの独立に向けた中国の推進を加速するリスクがある。
●より良い戦略は、中国の商業企業が米国の技術を使用して構築された外国のチップに依存し続ける一方で、軍事用途や人権侵害の販売を拒否することである。
●米国の政策立案者は、民間のAIの進歩が中国の軍民融合のモデルにより中国の軍隊に利益をもたらすことを恐れて、米国と中国のAI研究者の間の関係について疑念を持っているが、これは間違いである。
●米国は、人材の流れと中国の米国のハードウェアへの依存から利益を得ている。AIで中国に先んじるための最善の戦略には、米国がより多くの利益を得ることになる中国と協力することが含まれる。

4. 考 察

全体を俯瞰して、キーワードを3つ挙げるとすれば、「人間の思い込み」、「信頼」、「国際協力」としたい。

(1)人間の思い込み

中でも、「人間の思い込み」への対応が一番重要なファクターであると感じている。AIと聞くと、いつかは人工知能が人間を超える「シンギュラリティ」が到来するのではないか、また、「ChatGPT」などの新技術により、人間が制御不能になる世界が到来するのではないか、という漠然とした不安を人々が抱くのは、正常な反応であろう。逆に、AIが間違えるはずがないという都合の良い「勝手な思い込み」をしてしまうのも、人間の本性であろう。本報告書の中でも、自動運転車へのドライバーの誤った解釈が事故を引き起こしたケースが指摘されている。
こうした人間の思い込みに対しては、AIへの正しい理解が必要である。AIが出す回答を読み解く「読解力」や、正解を判断する「一般教養」も大切になるだろう。また、AIを上手に活用するには、技術的な知識だけでなく、AIに正確な指示を出す「国語力」も大事になってくるだろう。そういう意味では、これまでよりも広範な知識が求められることを覚悟すべきである。日本におけるAI人材の強化は、プログラミング能力だけでなく、どのような指示を出せば、どのような結果になるのか、それをどのように解釈するか、を多様なケースで使いこなす訓練が国民全体で必要であろう(注5)。特に、今後、仮想空間と現実空間のやり取りが構築される世界では、「ある」とは何かというそもそもの存在を問いかける、根本的な「哲学」の理解が求められるだろう。これは量子科学にも共通する概念である。ちなみに、2023年5月26日に米国シンクタンクCSETが開催したウェビナー「How Important is Compute to the Future of AI ?」では、今後のAIについては、「計算能力」よりも「良いアルゴリズム」を作る方が重要になってくる、というリサーチ結果が示された。
AIへの正しい理解には、「信頼」の醸成・構築と「国際協力」が重要なファクターになるだろう。「信頼」と「国際協力」に求められることを以下に整理した。

(2)信 頼

●AI開発に使用される用語の厳密な定義と統一性が求められる。
●AI開発の妥当性やそれらを実装するためのツールとリソースにつき、可用性と十分性を調査する「AI評価」という仕組みを提案する。
●いわゆる「アクセス格差」が生じないように、誰もがAIを活用できるようにインフラを整える。

(3)国際協力

●各国は競争圧力により、敵に先んじて新しいAI機能を配備したいという願望から、テストと評価(T&E)を短縮する可能性がある。こうした行為は、安全でないAIシステムの展開につながり、事故や不安定性のリスクを高める。むやみな競争を避けるためには外交努力が重要である。
●AIは、戦争の将来の特徴を形作る可能性がある。これらのリスクを軽減し、国際的な安定を促進するために、不測の戦争を防止するためにすべての国が共有する利益に基づいて構築されたCBMの使用を深めるべきである。
●米国は、人間だけが核兵器の使用を許可できるという既存の米国の政策を明確かつ公に確認し、ロシアと中国に同様の約束を求める必要がある。

これまで、米国の政策を俯瞰し、「人間の思い込み」、「信頼」、「国際協力」という3つのキーワードを挙げた。AIの技術開発は日進月歩で進むであろうが、いたずらに脅威に感じるのではなく、冷静な判断、対応が必要であろう。STEM(注6)教育の強化に加えて、国語力(読解力、コミュニケーション力)の強化も忘れないようにしたい。米国シンクタンクも指摘しているが、一朝一夕にできるものではなく、数十年単位で取り組むべきテーマであると肝に銘じたい。
上記に加えて筆者が気になった点は、米国のAI立法であるNAIIAに基づき設立された、NAIIが提示している6つの戦略的柱である。そのうちの、アプリケーションという戦略項目がさらに8つから構成されており、農業、金融、医療、COVID-19パンデミック対応、国家安全保障と防衛、科学、運輸、天気予報である。どれもAI戦略には重要な項目であるが、なかでも、「農業」に着目したい。本報告シリーズの第3回目に予定している「バイオテクノロジー」でも言及するが、米国は世界最大の農業生産国であるという優位性を活かし、「農業」にAIを始めとした最先端のテクノロジーを投入することで、農業全体での二酸化炭素の排出量を削減し、気候変動抑制に貢献するというビジョンを掲げている。当然、廃棄農作物から作るバイオ燃料も増産するであろう。2023年1月に米国ラスベガスで開催されたCES2023(注7)では、米国農機具メーカーのJohn Deere社が、「精密農業とバイオ燃料を使えば、EVよりも二酸化炭素削減効果が期待できるので、事業ポートフォリオに内燃機関を残す。」と宣言した。これには、バイオテクノロジー技術という米国が優位に立つ産業・エネルギー政策の将来的な政策が背景にあると思われる。
また、欧州はロシアによるウクライナ侵攻でロシアからの天然ガス輸入が大幅に減少しており、それに代替しているのが米国の天然ガスである(注8)。米国は欧州のエネルギー政策に関与することで、欧州主導のカーボンニュートラル政策にも影響を与えてくるだろう。その際、米国に優位性がある「農業」分野の技術を使用するように働きかけてくるのではないだろうか。また、米国はIRA(Inflation Reduction Act)法で米国EV産業への補助を強化しているが、米国の目的は中国の台頭を抑制することであるという視点に立つと、EVで優位に立とうとしている中国を抑え込むには、EVは地球環境への最適解ではないというロジックで、米国に優位性があるバイオテクノロジー技術やCCUS(注9)技術を活用するように仕向けてくる可能性があるのではないだろうか。こうした動きは、日本のエネルギー政策やEV政策にも大いに関係してくるので、米国のマルチユース技術の最新動向には引き続き留意したい。

5. 参考資料

【大統領令】

Maintaining American Leadership in Artificial Intelligence(2019年2月)

・2019年2月、トランプ大統領により署名された。
・AIは米国経済の成長を促進し、経済と国家の安全を強化し、生活の質を向上させるものである。
・5つの原則に導かれた連邦政府の戦略であるAmerican AI Initiativeを通じて、AIの研究開発と展開における米国の科学的、技術的、経済的リーダーシップの地位を維持および強化することが、米国政府の政策である。

(a)米国は、科学的発見、経済競争力、および国家安全保障を促進するために、連邦政府、産業界、学界全体でAIの技術的ブレークスルーを推進しなければならない。
(b)米国は、新しいAI関連産業の創出と今日の産業によるAIの採用を可能にするために、適切な技術基準の開発を推進し、安全なテストとAI技術の展開に対する障壁を削減しなければならない。
(c)米国は、現在および将来の世代の米国人労働者にAI技術を開発および適用するスキルを訓練させて、今日の経済と将来の仕事に備える必要がある。
(d)米国は、AI技術に対する国民の信頼を育み、その適用における市民の自由、プライバシー、および米国の価値を保護して、AI技術の可能性を米国民に十分に実現する必要がある。
(e)米国は、AIにおける米国の技術的優位性を保護し、重要なAI技術を戦略的競争相手や敵対国による買収から保護しながら、米国のAI研究とイノベーションを支援し、米国のAI産業に市場を開放する国際環境を促進しなければならない。

・このイニシアチブは、NSTCの人工知能に関する選択委員会を通じて調整される。また、政府機関のデータを共有できるように整理し、クラウドの活用を検討する。

Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government(2020年12月)

・2020年12月、トランプ大統領により署名された。
・AIの活用には国民の信頼を得ることが重要である。透明で責任があり、米国の価値観に沿って開発する計画を策定するよう連邦機関に求める。
・AIの研究開発(R&D)に投資するために、連邦機関の優先事項を明確にすることを求める。これにより、AIに対する国民の信頼が高まる。AIの設計、開発、取得、使用、および特定のAIアプリケーションに関連するインプットとアウトプットは、必要に応じて、実行可能な範囲で十分に文書化され、追跡可能である必要がある。
・連邦の法律と政策に沿ったAIのガバナンス構造を確立することを連邦機関に求める。また、AIを使用する際にプライバシーや市民の自由を保護する計画を策定するよう連邦機関に求める。

【行政の動き】

●National AI Initiative Act of 2020(NAIIA)

2021年、米国のAI政策が「National AI Initiative Act of 2020(NAIIA)」として立法化された。このNAIIAに基づき、OSTPが主導し米国のAI研究開発における継続的なリーダーシップを確保するため、NAII(The National Artificial Intelligence Initiative)が設立された。
このイニシアチブでは、次の項目が掲げられている。
① 公共部門および民間部門における信頼できるAIシステムの開発と使用において世界をリードする。
② 経済と社会のすべての分野にわたる人工知能システムの統合のために、現在および将来の米国の人材を確保・教育する。
③ 学界、産業界、非営利団体、および市民団体と協力して、米国のすべての省庁および機関にわたるAIの研究開発、デモンストレーション、および教育活動を強化および調整するための包括的なフレームワークを提供する。

このイニシアチブの下での作業は、以下の6つの戦略的柱で構成される。
①イノベーション(AIの研究開発)、②信頼できるAIの推進、③教育とトレーニング、④インフラ、⑤アプリケーション(8つ:農業、金融、医療、COVID-19パンデミック対応、国家安全保障と防衛、科学、運輸、天気予報)、⑥国際協力

【政府機関報告書】

●FINAL REPORT:NATIONAL SECURITY COMMISSION ON ARTIFICIAL INTELLI­GENCE(2021年3月)(NSCAI)

・米国国家安全保障会議(以下、NSC)が作成。NSCの議長は、エリック・シュミット(Google元CEO)。
・現実(米国の弱み)を素直に直視。
・第二次世界大戦以降初めて、米国の技術的優位性(経済力と軍事力のバックボーン)が脅威にさらされている。中国は、現在の傾向が変わらなければ、今後10年間でAIの世界的リーダーとして米国を追い抜く力、才能、野心を持っている。
・今日、政府は熱心な競争相手との技術競争に勝つための組織化や投資を行っておらず、AI対応の脅威から防御し、国家安全保障の目的でAIアプリケーションを迅速に採用する準備もできていない。米国がAI時代を勝ち取るには、ホワイトハウスのリーダーシップ、閣僚の行動、超党派の議会支援が必要である。
・NSCAI最終報告書は、政府を再編成し、国家の方向性を再編成し、最も近い同盟国とパートナーを結集して、AIが加速する競争と紛争の次の時代に防衛し、競争するための統合された国家戦略を提示する。これは二面的なアプローチである。パートI「AI時代の米国を守る」では、利害関係を概説し、AI関連のさまざまな脅威から防御するために米国が何をしなければならないかを説明し、米国政府が責任を持ってAI技術を使用して米国国民と国民の利益を保護する方法を推奨している。パートII「技術競争での勝利」では、AI競争の重要な要素を扱い、政府がAIイノベーションを促進して国家の競争力を向上させ、重要な米国の優位性を保護するために講じなければならない行動を推奨している。
・攻撃者はAIシステムを使用して、偽情報キャンペーンやサイバー攻撃を強化している。彼らは米国人に関するデータを収集して、個人を操作または強制するために、彼らの信念、行動、および生物学的構成のプロファイルを構築している。政府は、デジタル偽情報に立ち向かうために、タスクフォースと24時間年中無休のオペレーションセンターを立ち上げる必要がある。独自のデータベースをより安全に保護し、外国投資のスクリーニング、サプライチェーンのリスク管理、および国家データ保護法におけるデータセキュリティを優先する必要がある。政府はAI対応のサイバー防御を活用して、AI対応のサイバー攻撃から保護する必要がある。そして、バイオセキュリティは国家安全保障政策の最優先事項にならなければならない。
・国防総省はAI対応の戦争に対応できない軍事システムから戦略的に撤退し、代わりに次世代の機能に投資する必要がある。
・AI対応の自律兵器システムの世界的な禁止を追求することは実現可能ではなく、現在米国の利益にもならないが、そのようなシステムの世界的な未確認の使用は、意図しない紛争のエスカレーションと危機の不安定化のリスクを高める可能性がある。リスクを軽減するために、米国は(1)人間だけが核兵器の使用を許可できるという既存の米国の政策を明確かつ公に確認し、ロシアと中国に同様の約束を求める。(2)AIが危機の安定性に与える影響について競合他社と話し合う場を設ける。(3)AI対応の自律型兵器システムの開発、テスト、使用に関する国際的な実践基準を策定する。
・政府は、AIの研究開発に大規模な新たな投資を行い、全国のAI開発を促進するリソースへのアクセスを民主化する全国的なAI研究インフラストラクチャを確立する必要がある。(1)2026年までに年間320億ドルに達するように、AIの研究開発に対する非防衛資金を毎年2倍にし、国立技術財団を設立し、国立AI研究所の数を3倍にする。(2)クラウドコンピューティングリソース、テストベッド、大規模なオープントレーニングデータ、およびAIへのアクセスを拡大し、科学と工学の新しい分野での実験をサポートするオープンな知識ネットワークで構成される国家AI研究インフラストラクチャを確立する。(3)AIの市場を創出し、地域のイノベーションクラスターのネットワークを形成することにより、商業競争力を強化する。
・米国は、21世紀の国家競争力を支える技術の信頼できる単一のリストを作成し、AI、マイクロエレクトロニクス、バイオテクノロジー、量子コンピューティング、5G、ロボット工学と自律システム、3Dプリンティング、およびエネルギー貯蔵技術における米国のリーダーシップを促進するために大胆な行動を取らなければならない。
・私たちは、中国がAIのリーダーシップで私たちを追い越そうと決心していることを知っている。私たちは、AIの進歩がそれ自体の上に成り立ち、先行者に大きな利点をもたらすことを知っている。今、私たちは行動しなければならない。私たちが確立する原則、私たちが行う連邦政府の投資、私たちが行う国家安全保障のアプリケーション、私たちが再設計する組織、私たちが築き上げるパートナーシップ、私たちが構築する連合、そして私たちが育成する才能は、米国の戦略的進路を設定するであろう。米国は、イノベーションのリーダーシップを維持し、責任を持ってAIを使用して自由な人々と自由な社会を守り、全人類の利益のために科学の最前線を前進させるために必要な投資を行うべきである。AIは世界を再編成しようとしている。米国が主導権を握らなければならない。

●Lessons Learned from Federal Use of Cloud Computing to Support Artificial Intelligence Research and Development(2022年7月)(NSTC)

・NSTCのMACHINE LEARNING AND ARTIFICIAL INTELLIGENCE SUBCOMMITTEEによる文書。機械学習および人工知能(以下、MLAI)小委員会は、連邦政府内、民間部門、および国際的に機械学習(ML)および人工知能(AI)の最先端を監視している。AIの開発における重要な技術マイルストーンの達成、連邦政府によるMLとAIに関する知識とベストプラクティスの使用と共有の調整、および連邦政府のMLAI研究開発の優先事項の開発に関して協議を行う。MLAI小委員会は、NSTC技術委員会とAI選択委員会に報告する。
・この文書は、さまざまな機関が先頭に立ってクラウドコンピューティングリソースへのアクセスを強化し、連邦政府が資金を提供するAI R&Dを推進する活動から学んだ教訓を捉え、さらにAIのR&Dを促進するためのより広範な取組みのコンポーネントとして、連邦政府による商用クラウドの使用を最適化するための今後の潜在的な機会を強調することを目的としている。科学的発見を加速し、社会的課題に対処することができる。このレポートは、EO 13859の指令に従ってAI用のハイパフォーマンスコンピューティングリソースの割り当てを優先する連邦省庁および政府機関の進捗状況に特に焦点を当てている。
・クラウドを使用することで、連邦政府機関が所有および管理するデータへの計算アクセスが簡素化され、ビッグデータの効率的な使用と共同作業が促進される。例えば、アメリカ国立衛生研究所(NIH)のNational Library of Medicineがホストする36.4ペタバイトの公開およびアクセス制御されたゲノム配列決定データが、2つの商用クラウドコンピューティングプラットフォームで利用できるようになった。
・人材育成は、クラウドコンピューティングベースの研究活動を採用および拡張する能力において、依然として重大な制限要因となっている。連邦職員の多くは、クラウドコンピューティングテクノロジーに精通しておらず、クラウドコンピューティングシステムに関する業界認定資格を持っている人はほとんどいない。これらの制限は、内部の研究努力と、外部の研究者にガイダンスとリソースを提供する能力の両方に課題となっている。
・セキュリティ、プライバシー、説明責任を維持しながら、複数の商用クラウドコンピューティングプロバイダーにまたがるコンピューティング、データセット、ストレージへのアクセスを可能にする、シームレスなマルチクラウドエコシステムが特徴である。オープンソースツールとシングルサインオン権限によって促進されるこのような構造は、採用を容易にし、資格証明とコラボレーションに関連する手動プロセスの必要性を減らす。
・研究者は、さまざまなレベルの使用と専門知識に合わせて調整されたトレーニングにアクセスできるようになり、これらのリソースへのより公平なアクセスの機会が開かれ、それらの使用は指導および監視できる熟練した管理者によってサポートされる。
・AI R&D用の商用クラウドコンピューティングリソースへのアクセスを可能にする連邦政府全体のアプローチにより、研究者は資金提供機関に関係なく共通のユーザーエクスペリエンスを利用できるようになり、それによって研究の進歩が加速し、最先端のクラウドリソースによりアクセスしやすくなる。

●STRENGTHENING AND DEMOCRATIZING THE U.S. ARTIFICIAL INTELLIGENCE INNOVATION ECOSYSTEM:AN IMPLE­MENTATION PLAN FOR A NATIONAL ARTIFICIAL INTELLIGENCE RESEARCH RESOURCE(2023年1月)(OSTP and NSC)

・OSTPとNSCが立ち上げたNational Artificial Intelligence Research Resource Task Forceによる文書。
・最先端のAI研究を追求し、AIを新しい領域や課題に適用する機会には、現在、米国の素晴らしい才能のすべてがアクセスできるわけではなく、公共部門によって利用されているわけでもない。今日のAI研究の多くは、大量のデータと高度な計算能力へのアクセスに依存している。これらは、十分なリソースを持つテクノロジー企業や大学の研究者以外の研究者には利用できないことが多い。このアクセス格差により、AIを活用して私たちの社会の大きな課題に取り組む能力が制限されている。
・この課題を認識し、2020年の全米AIイニシアチブ法において、議会は、OSTPと協議して、NSFに指示し、NAIRRのロードマップを作成するためのタスクフォースを設立する。NAIRRは、AI研究者と学生に計算リソース、高品質のデータ、教育ツール、およびユーザーサポートへのアクセスを大幅に拡大する共有研究インフラストラクチャである。
・NAIRRタスクフォースのこの最終報告書は、アクセスの格差を克服し、AI技術の未来とその役割を開発するために適用される、より大きな頭脳とより多様な視点と経験の恩恵を享受することを目的とした、全国的なサイバーインフラストラクチャのロードマップと実装計画を示している。OSTPとNSFは2021年6月にNAIRRタスク フォースを正式に立ち上げ、学界、政府、民間組織と同等に代表する12人の主要な専門家を任命した。
・その作業の過程で、タスクフォースは11回の公開会議を開催し、NAIRRの設計に関連する幅広い側面について65人の専門家と関わり、2つの情報要求に対する一般からの回答を検討した。この1年半の努力の成果がこの最終報告書である。
・AIのブレークスルーは、エネルギーや持続可能性からヘルスケアや生物医学的治療、基礎研究に至るまで、連邦政府機関のさまざまなミッション分野での進歩を加速させる可能性がある。例えば、AIは、より持続可能な未来を構築するために必要な幅広い行動をサポートできる。これには、温室効果ガス排出の緩和や保全のためのデータ駆動型戦略の開発から、消費を管理するための自動化されたソリューションや、新しいクリーンエネルギー源と材料の発明が含まれる。
・国家にとってのAIのメリットを実現するには、米国のすべての研究者が必要なサイバーインフラストラクチャにアクセスできるかどうかにかかっている。特に、リソースが限られている研究者や、歴史的にAIおよび関連分野や産業から除外されてきた研究者はそうである。
・広くアクセス可能なAI固有の研究サイバーインフラストラクチャは、国家AI R&D戦略計画に沿って、上記の機会と課題を満たし、より強力で包括的な米国のAI R&Dエコシステムの構築に役立つ可能性がある。
・このビジョンは、最近の2022年のCHIPS and Science Actによって強化されている。これは、次世代グラフィックス処理ユニットから高密度メモリチップまで、高度なコンピューティングの開発を加速するための資金を充当し、AIを含む科学と工学の最前線における米国の才能の多様性を積極的に活用するための投資を承認している。

【シンクタンク報告書】

●CSET(Center for Security and Emerging Technology) Georgetown University
Comment to NIST on the AI Risk Manage­ment Framework(2022年9月)

・NISTのAI RMFに対するコメント。
・AI RMFの曖昧な定義につき、もっと具体的に記載した方がよいと提言。特に、AI活用が環境にもたらすリスクを考慮していない。大規模なAI開発は、環境に影響を与える高レベルのエネルギーを消費する可能性がある。

A Common Language for Responsible AI(2022年10月)~Evolving and Defining DoD Terms for Implementation~

・2021年5月、国防副長官は、国防総省が2020年2月に採用した5つの倫理原則を強化した。この原則では、すべてのAIシステムは責任があり、公平で、追跡可能で、信頼でき、管理可能でなければならないとされる。
・特にエンジニアやプログラムマネージャーは、契約要件の設定やリスク管理プロセスの確立など、開発プロセスにおける技術的なトレードオフについて交渉する際に、複数の概念が混ざり合わないように焦点を絞った用語が必要になる。
・NISTのドラフト「AI RMF」は、責任あるAIの主要な特性を、エンジニアと政策立案者に等しく役立つ用語で定義し、説明している。この用語は、責任あるAIに関する国防総省の5つの倫理原則とほぼ一致しているが、責任あるAIを実装する作業を行うためにエンジニア、オペレーター、および政策立案者全員が必要とする具体性を追加することで、国防総省のガイダンスを改善できる。
・国防総省は、責任あるAIを作成し、国家安全保障に関してAI倫理の国際的リーダーになるというコミットメントを繰り返し表明している。NISTのドラフト「AI RMF」とそれが開発した分類法と用語は、信頼できる、または責任あるAIの開発に関して国防総省が関心を持っている会話をより具体的にする。ほとんどの場合、国防総省はNISTの用語と定義を採用して、責任あるAIの議論を導くことができる。国防総省の使命である「責任」と「追跡可能」に関する固有の用語と概念については、これら2つの用語を政策立案者が強調して、国防総省の特殊性を確実に理解し、新しいシステムの開発と実装を適切に導くことができるようにする必要がある。
・今、変更を加えることで、後に国防総省が社内で、また外部パートナーと協力して責任あるAI対応システムを作成する際の混乱を避けることができる。

One Size Does Not Fit All(2023年4月)

・AIの統合に伴い、AIの事故、誤用、予期しない動作によるリスクと潜在的な被害が急増している。AIが米国の商業、社会、インフラ、および国家安全保障に予期せぬ悪影響を与えるという懸念の高まりは、AIによる潜在的な害を軽減し、AIのアプリケーションと技術が安全で信頼できるものであることを確認するのに役立つAI評価の必要性を浮き彫りにしている。
・CSETは、現在のAI評価アプローチの開発と妥当性、およびそれらを実装するためのツールとリソースの可用性と十分性を調査するために、「AI評価」というタイトルの新しい研究ラインを開始した。
・現在、世界で米ドルが基軸通貨であるのは、金融機関、政府、決済制度、保険制度、軍事力などさまざまなレベルでの、個々の高い信頼性によって成り立っている。これらのうち一つでも欠ければ成り立たない。同じことがAIにもいえる。
・多様なAIに適切に適用できる、単純で万能の評価アプローチはない。AIシステムには、さまざまな機能、出力がある。また、さまざまなツール、データタイプ、およびリソースを使用して作成されるため、評価の多様性が増す。幅広いAI製品、ツール、サービス、およびリソースをカバーするには、一連のアプローチとプロセスが必要。
・さらに、AI作成の数と頻度が大幅に増加するため、リソースには、評価をスケーリングし、AIシステムの多様性と量を処理するための手法とツールを含める必要がある。新しいAIイノベーションにより、評価のニーズが変わる可能性がある。この研究は、将来のニーズに適応できる評価の基盤を提供する。また、AI評価に対する現在の米国のニーズと能力をよりよく理解し、AIの政策、リソース、研究、および国家安全保障に関する決定をサポートする。
・AI評価プロセスの進化と採用は、米国の安全保障と経済的繁栄の両方に影響を与える。それらの品質が劣っていたり、不均一に採用されていたりすると、AIの開発と主要セクター全体でのスケーリングが妨げられるだけでなく、有害なAIイベントの数が増加したり、経済に厄介な負担をもたらしたりする可能性さえある。米国がAIおよび関連する新興技術をリードするためには、AI評価は、パートナーの政府や組織と連携して、さまざまなAI製品にわたって実行可能である必要があり、敵対者と比較して国家の競争力を妨げる可能性のある欠陥を作成してはならない。これらの作業は一朝一夕にできるものではなく、時間がかかるものであると認識しなければならない。

●CNAS(The Center for a New American Security)
AI and International Stability(2021年1月)

・AIは、戦争の将来の特徴を形作る可能性がある。これらの使用は、国際的な安定に重大なリスクをもたらす可能性もある。これらのリスクは、戦争を形作る可能性のあるAIの幅広い側面、不注意な紛争のリスクを高める可能性のある機械学習方法の制限、およびAIの使用が危険となる可能性のある核作戦などの特定の任務分野に関連している。これらのリスクを軽減し、国際的な安定の促進に向けて、不測の戦争を防止するためにすべての国が共有する利益に基づいて構築されたCBMの潜在的な使用を探る。万能薬ではないが、CBMは、AI対応システムに関する情報共有と通知の基準を作成し、不注意による競合を少なくすることができる。
・過去の産業革命が戦争を形作ったのと同じように、人工知能の導入による戦争の認識は、時間が経つにつれて、戦争を根本的に変える可能性がある。
・例えば、中国と米国の両方の学者は、戦闘作戦にAIと自律システムを導入すると、人間の制御のペースを超えて戦争のテンポが加速する可能性があるという仮説を立てている。
・戦場の特異点、つまりハイパーウォーの論理が厄介なのは、競争圧力が軍に作戦のテンポを加速させ、敵と歩調を合わせるために、たとえ望んでいないとしても「ループから」人間を排除する可能性があるためである。
・すでに、StarCraftやDota 2などのリアルタイム コンピューター戦略ゲームをプレイしているAIエージェントは、超人的な攻撃性、精度、協調性を示している。
・不十分なデータセットでトレーニングしたり、設計の狭いコンテキストの外で使用したりすると、AIシステムは信頼性が低く脆弱になることがよくある。AIシステムは、実験室の設定によってはうまく機能し(時には人間よりも優れている)、実世界の変化する環境条件の下で劇的に失敗することがある。一見すると能力があるように見えることがよくある。例えば、自動運転車は、状況によっては人間のドライバーよりも安全かもしれないが、人間のオペレーターが問題を抱えていない状況では、不可解なことに致命的になる。自動化されたシステムまたは自律システムの人間のオペレーターは、自分自身が操作していたシステムの機能を誤解して事故につながる場合があった。
・セキュリティのジレンマのダイナミクスから生じる。競争圧力により、敵に先んじて新しいAI機能を配備したいという願望から、国家はテストと評価(T&E)を短縮する可能性がある。市場で他社を出し抜こうとする同様の競争圧力が、自動運転車や民間航空機の自動操縦のAIシステムに関連する事故のリスクを悪化させる役割を果たしているようである。
・歴史的に、これらの圧力は戦争の直前と戦争中に最も高くなり、新しい技術を取り巻くリスクと報酬の方程式は、実際の生活が原因で変化する可能性がある。例えば、第一次世界大戦では、競争圧力が毒ガスの導入を加速させた可能性がある。
・このダイナミックなリスクは、他国が先に展開するのではないかという恐れから、十分にテストされていないAIシステムの展開を各国が加速するという自己実現的予言を引き起こす可能性がある。最終的な影響は軍拡競争ではなく、これは、安全でないAIシステムの展開につながり、事故や不安定性のリスクを高める。
・CBMは、国家間の軍事AI競争のリスクを軽減するために政策立案者が使用できる潜在的なツールの1つである。使用できる可能性のあるさまざまな信頼醸成手段があり、そのすべてに異なる利点と欠点がある。学者や政策立案者が軍事AI競争のリスクをよりよく理解するために前進するにつれて、これらおよびその他のCBMは、伝統的な軍備管理などの他のアプローチとともに慎重に検討する必要がある。

To Stay Ahead of China in AI, the U.S. Needs to Work with China(2023年4月)

・AIで中国に先んじるためには、米国は中国と協力する必要がある。米国にとって最善の競争戦略は、問題のある関係を断ち切りながら、人的才能やコンピューティングハードウェアなど、米国が不釣り合いに利益を得る分野で中国との関係を維持すること。
・ワシントンによる規制の強化は、行き過ぎのリスクがある。米国の技術的リーダーシップを維持するために、米国は中国人人材の米国への流れを維持し、中国の米国のハードウェアへの依存を維持する必要がある。
・中国は世界で最もトップのAI科学者を輩出している。トップAIカンファレンスで発表している研究者は、他のどの国よりも中国から来ている。しかし、彼らは中国にとどまらない。AIを研究している中国の優秀な学部生の半数以上が大学院のために米国に来ている。そして彼らはとどまる。博士号を取得するために米国に移住する中国の学部生の90%以上が、卒業後も米国に滞在している。中国の才能の最大の受益者は中国ではなく、米国である。
・AI研究のフロンティアがChatGPTのようなより計算集約的なAIモデルに移行するにつれて、米国は中国に対して非対称的な優位性を持っている。世界で最も先進的なチップは米国で製造されていないが、米国の技術を使用して製造されている。米国政府はこの事実を利用して、5年にファーウェイの高度な2020Gチップへのアクセスを遮断し、ファーウェイのグローバルな5Gビジネスを壊滅させた。2022年、バイデン政権は中国への高度なAIチップにさらに広範な輸出管理を課した。ファーウェイのコントロールとは異なり、これらの新しいAIチップコントロールは特定の企業を対象としていない。彼らは中国全土である。これらの規制は、最先端のAIモデルを訓練する中国企業の能力を制限する可能性があるが、チップの独立に向けた中国の推進を加速するリスクがある。
・より良い戦略は、中国の商業企業が米国の技術を使用して構築された外国のチップに依存し続ける一方で、軍事用途や人権侵害の販売を拒否することである。中国が米国の技術に依存し続けることは、米中の技術競争における強力なツールであるファーウェイに対して米国政府が使用したようなレバレッジを維持するであろう。
・ワシントンは、米国と中国のAIエコシステムの選択的デカップリングに向けて着実な道を歩んでいる。米国の政策立案者は、中国の軍民融合のモデルにより民間のAIの進歩が中国の軍隊に利益をもたらすことを意味することを恐れて、米国と中国のAI研究者の間の関係について疑念を持って見る傾向がある。これは間違いである。米国は中国と長期的な技術競争を繰り広げているが、純粋なデカップリングは弱い戦略である。米国は、人材の流れと中国の米国のハードウェアへの依存から不釣り合いに利益を得ている。ワシントンは、他国を断ち切っている間でさえ、これらのつながりを維持するべき。AIで中国に先んじるための最善の戦略には、米国がより多くの利益を得るときに中国と協力することが含まれる。

【その他文書】

OECD AIに関する理事会勧告(2019年5月)

・令和元年(2019年)5月22日にフランス・パリで開催された経済協力開発機構(OECD)の閣僚理事会で採択された「Recommendation of the Council on Artificial Intelligence」について、日本語による情報提供のみを目的として総務省が作成・公表した非公式の翻訳である。
・本勧告は、信頼できるAIの責任あるスチュワードシップのために相互に補完的な価値観に基づく5つの原則を特定し、AIのアクターに対してそれらを推進し、かつ履行するよう求めている。
それらはすなわち:
・包摂的な成長、持続可能な開発および幸福;
・人間中心の価値観および公平性;
・透明性および説明可能性;
・頑健性、セキュリティおよび安全性;並びに
・アカウンタビリティ
である。

REAIM2023(2023年2月)

・オランダのデルフト工科大学が主催し、軍事分野におけるAIのメリットとともに、デメリットについても議論された。
・同時に、AIの使用は倫理的な問題とリスクをもたらす。AIシステムの自律性、不透明性、および規模は、特に行動の影響が大きく、エラーの許容範囲が小さい軍事分野では困難である。したがって、AI技術とAIベースのシステムが、広く共有されている価値観に従って設計および使用されること、および関連するすべての利害関係者の間でこれらの価値観について議論するための実用的な方法があることを確認することが重要である。これは、学術機関、社会的利害関係者、産業および軍事組織間の緊密な協力と組み合わせる必要がある。協力することによってのみ、将来のAIベースのイノベーションが軍のニーズに適合し、責任ある方法で運用されることを保証できる。
・デルフト工科大学(オランダ)、クイーンズランド大学(オーストラリア)、ラフバラ大学(イギリス)、スタンフォード大学(米国)、ノートルダム大学(フランス)、イェール大学(米国)、テクニオン(イスラエル工科大学)が参加した。

(注1)OSTP:Office of Science and Technology Policy
(注2)NSTC:National Science and Technology Council
(注3)CSET(Center for Security and Emerging Technology)は、ジョージタウン大学のWalsh School of Foreign Service内の政策研究組織。CSETは現在、人工知能(AI)、高度なコンピューティング、バイオテクノロジーの進歩の影響に焦点を当てている。
(注4)CNAS(The Center for a New American Security)は、独立した超党派の非営利組織であり、実用的で原則に基づいた国家安全保障および防衛政策を策定している。
(注5)国民の思考性がインプットされるので、安全保障の観点からも国産のAI、データベースが望ましい。
(注6)Science, Technology, Engineering, Mathematicsの頭文字を取ったもの。
(注7)毎年1月にラスベガスで開催される世界最大規模の先端テクノロジー展。従来は家電が中心の展示であったが、近年は自動車メーカーの参加が多い。
(注8)CSIS「U.S. LNG Remapping Energy Security」(2023年1月17日)
(注9)Carbon Capture, Usage and Storage

著者プロフィール

青木 崇 (あおき たかし)

株式会社日本政策投資銀行業務企画部所属/政策研究大学院大学政策研究院 シニアフェロー(出向中)

慶應義塾大学理工学部応用化学科卒業
1996年 東海銀行(現三菱UFJ銀行)に入行
2006年 米国金融コンサルティング会社に入社
2008年 日本政策投資銀行に入行
2013年 九州支店企画調査課長
2020年 産業調査部産業調査ソリューション室長
2022年 政策研究大学院大学シニアフェロー(出向中)
2023年 科学技術振興機構研究開発戦略センター(CRDS)特任フェロー(兼務)