AIモデル事前審査へ揺れる米政権とサイバー安全保障政策の境界線
はじめに
米ホワイトハウスが、先端AIモデルの公開前審査を検討していると報じられました。これは単なる「AI規制強化」ではありません。トランプ政権は発足直後からAI開発の規制緩和を掲げてきましたが、サイバー攻撃や国防利用に直結する能力が急速に高まったことで、安全保障の論理が前面に出てきました。
焦点は、モデルの思想や発言を政府が管理するかどうかではなく、公開後に悪用されると取り返しがつきにくい能力を、誰が、どの時点で、どの基準で評価するかです。特にAnthropicのClaude Mythos Previewが示した脆弱性探索能力は、AI評価を研究課題から国家安全保障の実務へ押し上げました。
この記事では、米政権の政策転換の背景、CAISIや英国AISIの評価制度、EU AI法との違い、そして防衛分野でのAI導入が生む緊張を整理します。
公開前審査が浮上した政治的背景
規制緩和から安全保障への旋回
トランプ政権のAI政策は、当初は明確に規制緩和型でした。2025年1月23日の大統領令は、前政権のAI政策を「米国のAI革新を妨げる障壁」と位置づけ、AI分野での米国優位を維持する行動計画の策定を命じました。政権はその後、2025年7月に「America’s AI Action Plan」を公表し、90を超える連邦政策アクションを掲げています。
この行動計画の柱は、イノベーション加速、AIインフラ整備、国際外交と安全保障で構成されています。データセンター建設の迅速化、米国製AI技術の輸出、政府調達での「客観性」確保などが中心で、基本姿勢は「AI競争に勝つための国家産業政策」です。
一方で、政府内のAI利用にはすでに統治の枠組みが残っています。OMBのM-25-21は、連邦機関にAI活用を促しつつ、プライバシー、自由権、市民権を守るための管理を求めています。高リスク用途にあたる「high-impact AI」には、より強いデューデリジェンスが必要とされています。
今回浮上している公開前審査は、この政府利用の管理をさらに前段階へ広げる発想です。Axiosは、ホワイトハウスの国家サイバー長官室が先週、技術企業や業界団体と会合を持ち、連邦・州・地方政府に導入されるAIモデルの安全性テストを国防総省主導で行う案が議論されていると報じています。ホワイトハウス側は、大統領令に関する議論は憶測であり、政策発表は大統領本人から行われると説明しています。
重要なのは、政権が「規制を嫌う」立場から「安全保障上の評価は必要」という立場へ揺れている点です。AIモデルが一般消費者向けチャットボットにとどまるなら、過剰な事前審査は市場を遅らせるだけかもしれません。しかし、モデルが脆弱性探索、攻撃コード作成、標的選定、政府システムへの導入に使われるなら、単なる民間製品とは扱えません。
Mythosが示したサイバー能力
政策議論の直接の引き金になったのが、AnthropicのClaude Mythos Previewです。同社は2026年4月7日、Project Glasswingを発表しました。これは、AWS、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networksなどと連携し、重要ソフトウェアをAIで防御する取り組みです。
Anthropicの説明によれば、Mythos Previewは一般公開されていないフロンティアモデルであり、主要OSや主要Webブラウザを含む重要ソフトウェアから、多数の高深刻度のゼロデイ脆弱性を見つけたとされています。同社は、40を超える追加組織にもアクセスを拡大し、最大1億ドル分のモデル利用クレジットと、オープンソース安全保障団体への400万ドルの直接寄付を表明しました。
同社のレッドチーム報告は、さらに踏み込んだ内容です。Mythos Previewは、未修正の脆弱性が多いため詳細の99%以上を公開できないとしつつ、実際のオープンソースコードや閉鎖ソースソフトウェアの分析で、脆弱性発見から悪用可能性の検証まで進めたと説明しています。これは「コード補助AI」が「攻撃可能性を実証するAI」へ近づいたことを意味します。
もちろん、企業の発表をそのまま能力の絶対評価と見るべきではありません。モデルの性能は、評価環境、プロンプト、ツール利用、対象コード、検証手順に大きく左右されます。Anthropic自身も、セキュリティ研究者向けに方法論を公開し、協調的な脆弱性開示を前提にしています。
それでも、政府が反応した理由は明確です。サイバー空間では、守る側が脆弱性を見つける速度と、攻撃側がそれを悪用する速度の差が被害規模を左右します。AIがこの時間差を縮めるなら、公開前の評価は「市場の許認可」ではなく「攻撃面の管理」として議論されます。
評価制度をめぐる米英欧の違い
CAISIと政府調達の評価基盤
米国には、公開前審査の土台になり得る制度がすでにあります。NIST内のCenter for AI Standards and Innovation、通称CAISIです。CAISIは、商用AIシステムの能力や安全性について、産業界との協調研究や評価を行う政府の窓口とされています。評価対象には、サイバーセキュリティ、バイオセキュリティ、化学兵器など、実証可能な国家安全保障リスクが含まれます。
CAISIの前身である米AI Safety Instituteは、2024年8月にAnthropicとOpenAIとの協定を発表しました。この協定は、両社の主要な新モデルについて、公開前および公開後にアクセスを受け、安全性や能力リスクの評価手法を共同研究する枠組みです。これは義務的な認可制度ではありませんが、政府がモデル公開前に技術的知見を得る先例になりました。
同じ年の12月には、米国AISIと英国AISIがOpenAIのo1モデルについて共同の公開前評価を行いました。評価は限られた期間のアクセスで実施され、サイバー能力、生物分野の能力、ソフトウェアおよびAI開発能力が対象でした。結果は公開前にOpenAIへ共有され、報告書では評価科学がまだ発展途上であることも明記されています。
さらにNISTは、2024年11月にTRAINSタスクフォースを設けました。これは、国防総省、エネルギー省、国土安全保障省、NSA、NIHなどが参加し、放射線・核、化学・生物、サイバー、重要インフラ、通常軍事能力などの領域でAI評価を連携させる枠組みです。2026年時点ではCAISIの下で拡大が続いています。
2026年3月には、CAISIがGSAと覚書を結び、連邦政府の安全な生成AI基盤であるUSAiの評価を支援することも発表されました。ここでは、モデルの性能、安全性、実際の業務フローでの機能性を測る方法論が課題になっています。つまり米国では、事前審査という言葉が正式制度になる前から、政府調達、標準化、国家安全保障の三つの経路で評価制度が積み上がっています。
英国AISIとEU AI法の参照点
英国AISIは、米国が参照しやすいモデルです。同機関は、2023年11月以降、国家安全保障と公共安全に関わる領域でフロンティアAIを評価してきました。2025年のFrontier AI Trends Reportでは、サイバー領域でAIモデルが「見習いレベル」のタスクを平均50%こなすようになり、2024年初めの10%強から大きく伸びたと報告しています。
同報告は、サイバータスクの長さ、つまり人間の専門家ならどの程度の時間を要する作業をモデルが単独で処理できるかが、おおむね8カ月ごとに倍増しているとも示しています。さらに、強い安全ガードを持つモデルでも脆弱性は残り、同機関が試したすべてのシステムで何らかの弱点を見つけたとしています。
英国型の特徴は、政府が独自に評価能力を持つ一方で、直ちに包括的な許認可機関として振る舞っているわけではない点です。AISI自身も、第三者評価は新しく急速に発展している科学であり、手法を反復的に改善していく必要があると説明しています。これは、AI評価を「合格・不合格の単純な試験」と見なさない姿勢です。
EUのアプローチは、より法制度に近いものです。EU AI法では、汎用AIモデルの提供者に技術文書の作成、著作権方針の実装、学習内容の要約公開を求めています。さらに、システミックリスクを持つ汎用AIモデルには、欧州委員会への通知、リスク評価と緩和、重大インシデント報告、サイバーセキュリティ保護が課されます。これらの義務は2025年8月2日から適用が始まりました。
米国で検討されている公開前審査は、EUのような横断的な法的義務よりも、英国型の技術評価と米国型の安全保障調達が混ざったものになりそうです。対象も、すべてのAI製品ではなく、サイバー、化学・生物、国防、重要インフラに影響するフロンティアモデルに絞られる可能性があります。
企業競争と国防利用が生む緊張
防衛ネットワークへのAI導入
公開前審査の議論は、米軍のAI導入拡大と同時に進んでいます。米国防総省の発表文では、2026年5月1日、SpaceX、OpenAI、Google、NVIDIA、Reflection、Microsoft、Amazon Web Servicesの7社と、分類ネットワーク上でAI能力を展開する協定を結んだとされています。用途は「lawful operational use」とされ、IL6およびIL7のネットワーク環境で、データ統合、状況認識、意思決定支援を強化する狙いです。
この発表は、AIモデルがすでに国家安全保障の中枢に入り始めていることを示しています。政府はAIの最大顧客であり、導入促進者であり、同時に安全性評価者にもなりつつあります。ここに政策上の難しさがあります。政府が強く介入すれば、民間の開発スピードや企業秘密を損なう懸念が生まれます。しかし介入しなければ、国家機能そのものが評価不十分なモデルに依存する危険があります。
特にフロンティアモデルは、民生用と軍事用の境界が曖昧です。コード生成は生産性向上に役立ちますが、脆弱性探索や攻撃コード作成にもつながります。長文推論やエージェント機能は研究支援に有用ですが、標的選定や持続的な侵入作業の自動化にも転用できます。モデルが同じでも、接続するツール、権限、利用者、目的によって危険度は変わります。
このため、公開前審査は「モデル単体の点数」だけでは成立しません。API提供か、重み公開か、閉域網での限定利用か、一般公開かによってリスクは異なります。さらに、悪用を止めるガードレールがモデル内部にあるのか、システム側の監視・認証・利用制限に依存するのかも区別しなければなりません。
審査制度の設計課題
制度設計で最も避けるべきなのは、曖昧な基準による政治化です。AIモデルの公開前審査が、サイバー能力やバイオリスクの評価ではなく、政権に都合のよい出力を求める仕組みになれば、企業の信頼も国際的な説得力も失われます。CAISIが掲げる「実証可能なリスク」に焦点を当てる姿勢は、この懸念を抑える上で重要です。
同時に、評価結果を過信することも危険です。AIモデルの能力は、評価時点のプロンプトやツール、テストデータに依存します。モデルが更新されれば挙動は変わり、利用者が外部ツールを組み合わせれば能力も拡張されます。公開前テストは必要条件であって、十分条件ではありません。
実務的には、審査対象を能力ベースで絞る必要があります。たとえば、未知脆弱性の発見と悪用、化学・生物分野の危険な手順支援、自律エージェントによる長時間タスク遂行、重要インフラへの接続可能性などです。企業規模やモデル名で線を引くより、実際に何ができるか、どこに配備されるかを基準にした方が合理的です。
また、政府アクセスの扱いも難題です。公開前モデルには、企業秘密、未公表の安全対策、顧客情報、研究上の弱点が含まれます。評価機関には、情報隔離、アクセスログ、脆弱性情報の管理、評価者の利益相反管理が必要です。審査制度が漏えいリスクを増やすなら、本末転倒になります。
もう一つの課題は、審査がイノベーションの遅延装置になることです。AI開発は数カ月単位で能力が変わり、英国AISIの報告も一部能力の急速な伸びを示しています。審査に長い時間がかかれば、評価が終わる頃にはモデルが古くなります。短期間で実施できる標準化されたテスト、深いレッドチーム評価、公開後の継続監視を組み合わせる設計が必要です。
注意点・展望
公開前審査をめぐる議論でよくある誤解は、これを全面的なAI検閲と同一視することです。確かに政府がモデル出力に政治的基準を持ち込むリスクはあります。しかし、サイバー攻撃や重要インフラ防護の文脈では、一定の技術評価を行わないこともまた危険です。問題は、審査の有無ではなく、基準、権限、透明性、異議申立ての設計です。
もう一つの誤解は、ベンチマークで安全性を完全に測れるという見方です。AI評価は急速に進歩していますが、モデルはテスト環境と実運用で異なる振る舞いを見せます。英国AISIが強調するように、第三者評価はまだ新しい科学です。標準テスト、専門家によるレッドチーム、実運用ログの監視、インシデント報告を連動させる必要があります。
今後の焦点は、ホワイトハウスが大統領令や作業部会の形で、CAISI、国防総省、国家サイバー長官室、情報機関の役割分担をどう定めるかです。全面的な認可制ではなく、政府調達や公的部門導入の条件として評価を義務づける形なら、政治的抵抗は比較的小さくなります。
日本にとっても、これは遠い話ではありません。行政、金融、製造、防衛、医療で海外AIモデルを利用する場合、米国の評価制度が事実上の国際標準になる可能性があります。モデル性能だけでなく、公開前評価、脆弱性対応、インシデント報告、政府調達での条件を確認する視点が欠かせません。
まとめ
米政権が検討するAIモデルの公開前審査は、規制緩和路線の単純な転換ではなく、フロンティアAIが安全保障技術になったことへの反応です。AnthropicのMythos、CAISIの評価基盤、英国AISIの第三者評価、EU AI法の義務化は、いずれも同じ問いに向き合っています。
その問いとは、AIの能力が社会実装より先に危険域へ達したとき、公開前にどこまで確かめるべきかです。必要なのは、広すぎる規制ではなく、能力と配備先に応じた精密な評価制度です。企業の競争力を保ちながら、サイバー安全保障を守れるかが、次のAI政策の分水嶺になります。
参考資料:
- Trump administration considering safety review for new AI models
- Removing Barriers to American Leadership in Artificial Intelligence
- White House Unveils America’s AI Action Plan
- M-25-21 Accelerating Federal Use of AI through Innovation, Governance, and Public Trust
- Center for AI Standards and Innovation
- U.S. AI Safety Institute Signs Agreements Regarding AI Safety Research, Testing and Evaluation With Anthropic and OpenAI
- Pre-Deployment Evaluation of OpenAI’s o1 Model
- U.S. AI Safety Institute Establishes New U.S. Government Taskforce to Collaborate on Research and Testing of AI Models
- CAISI signs MOU with GSA to boost AI evaluation science in federal procurement through USAi
- Project Glasswing
- Assessing Claude Mythos Preview’s cybersecurity capabilities
- Classified Networks AI Agreements
- Frontier AI Trends Report
- Early lessons from evaluating frontier AI systems
- General-purpose AI obligations under the AI Act
テクノロジー・サイエンス
宇宙開発・AI・バイオテクノロジーなど最先端の科学技術を、社会的インパクトの視点から読み解く。技術と倫理の交差点を追い続ける。
関連記事
AI企業は「善良」でいられるか 利益と倫理が衝突する構造的矛盾
Anthropicが国防総省との対立で連邦政府から排除され、OpenAIは非営利から公益法人への転換を完了した。AI企業は善良さと利益を本当に両立できるのか。安全政策の後退、安全責任者の辞任、巨額著作権訴訟が相次ぐ中、AI産業が直面する倫理的課題と公益法人という企業形態の構造的限界を技術と社会の交差点から読み解く。
OpenAI新GPT-5.5が映すAI競争とサイバー防衛の再設計
OpenAIが4月23日に公開したGPT-5.5は、Terminal-Bench 2.0で82.7%、OSWorld-Verifiedで78.7%を記録しつつ、サイバー能力をHigh扱いで一般展開しました。限定公開のAnthropic Mythosと何が違うのか。性能、価格、安全策、企業導入への含意を読み解きます。
ジャグド・インテリジェンスが変えるAI能力論と雇用論点の再整理
AIは人間並みかという問いでは、仕事への影響を読み違えます。ハーバードとBCGの758人実験、NBERの職場研究、Anthropic・ILO・WEF・OpenAIの公開データ、SimpleQAやARC-AGI-2の評価を横断し、能力のムラ、現場導入の条件、置き換わる業務と残る人間の役割を読み解きます。
AIが生むコードの洪水、企業が直面する新たな技術的負債
AI生成コードが全体の4割超に到達、セキュリティと品質管理の課題
AIがサイバーセキュリティを根本から変える攻防の最前線
AI技術の進化がサイバー攻撃と防御の両面を加速させる新時代の到来
最新ニュース
中絶薬ミフェプリストン最高裁再燃、遠隔処方と全米アクセス争点
米最高裁は中絶薬ミフェプリストンの郵送・遠隔処方規制を一時停止した。ルイジアナ州訴訟はFDAのREMS変更、13州の全面禁止、シールド法による越境診療を直撃する。2024年判決の原告適格論と行政国家への司法介入を踏まえ、患者、医師、州政府に及ぶ実務リスクと全米アクセスの行方、今後の焦点を詳しく読み解く。
オルフィン系オピオイドの脅威、米国検査網の死角と地域防衛策を問う
米国でbrorphineやcychlorphineなどオルフィン系合成オピオイドの検出が拡大。フェンタニル検査紙では拾えず、テネシーや中西部で死者が相次ぐ背景、規制回避型市場と検査格差、支援情報から取り残される人々の課題、低所得層や住居不安定層に重なるリスク、地域で必要な薬物チェック・ナロキソン・治療接続を解説。
強いエルニーニョ発生へ、温暖化で変わる世界の豪雨熱波と最新の備え
NOAAは2026年夏にエルニーニョが発生する確率を61%、冬に非常に強くなる可能性を4分の1程度と見込む。気象庁も夏の発生可能性70%を示した。温暖化で海と大気の基準線が上がる中、ENSOの仕組み、春予測の不確実性、豪雨、熱波、台風、農業、経済への影響と日本の気候リスク管理を最新資料から詳しく解説。
風力タービンは本当にレーダーを乱すのか米国防衛と再エネの論点
米国で風力発電の審査遅延が広がる中、タービンの回転翼が軍事・航空・気象レーダーに与える干渉を検証。DOD、DOE、NOAA、MITの資料を基に、誤検知や探知感度低下の仕組み、FAA審査、ソフト更新や配置変更で管理する現実、トランプ政権下で安全保障論点が政治化する構図、防衛任務と再エネ拡大を両立させる条件まで解説。
AI失業の黙示録は来るのか?恐怖と現実の乖離
AIによる大量失業の恐怖が広がる一方、モルガン・スタンレーの分析では失業率への影響はわずか0.1ポイントにとどまる。BCGは米国の50〜55%の職が変容するが消滅ではないと結論。「効率の実感は疑うべき」とするコラムニストの指摘や、企業がAIをリストラの口実に使う実態を踏まえ、AI雇用問題の深層構造を読み解く。