NewsAngle

NewsAngle

OpenAIとAnthropic、米AI規制を動かすロビー攻防

by 坂本 亮
URLをコピーしました

ワシントン常駐化が示すAI政治の転機

米国のAI政策は、研究室や製品発表の場だけで決まる段階を越えました。OpenAIは2026年4月に発表した政策文書で、ワシントンD.C.に新しい「OpenAI Workshop」を開き、政策アイデアを議論する場にすると説明しています。Anthropicも安全性と透明性を前面に出しながら、政治団体への資金提供や企業PACの設立へ動いています。

重要なのは、ロビー活動の増加が単なる業界防衛ではない点です。生成AIの性能向上は、著作権、電力網、データセンター建設、輸出管理、国防利用、州規制の権限配分を同時に揺らしています。この記事では、公開されたロビー開示、企業発表、政府文書をもとに、AI企業がワシントンで何を得ようとしているのかを整理します。

ロビー費急増を生んだ規制と調達の接点

Q1支出に表れた新興AI企業の成熟

AI企業の政治関与は、2026年に入って一段と可視化されました。Axiosが米上院のロビー開示をもとに報じたところでは、Anthropicは2026年第1四半期に連邦ロビー活動へ160万ドルを支出し、OpenAIは100万ドルを支出しました。Anthropicは前年同期の36万ドルから大きく増え、OpenAIも前年同期の56万ドルから増加しています。

この金額だけを見ると、Metaの710万ドル、Amazonの440万ドル、Googleの290万ドルといった巨大テック企業には及びません。それでも、フロンティアモデル企業が四半期で100万ドル台を使うようになった事実は、AIラボが政策上の「例外的な研究機関」から、規制・調達・インフラに強い利害を持つ産業主体へ変わったことを示します。

OpenAIとAnthropicは、同じ生成AI企業でもロビー上の重心が異なります。OpenAIの開示では、AI、著作権、サイバーセキュリティ、クラウドコンピューティング、インフラが主要論点とされています。これは、ChatGPTやAPIの普及だけでなく、学習データと計算資源を確保し、政府利用の標準に入り込む必要があるためです。

一方のAnthropicは、AI調達、国防総省調達、サプライチェーンリスク、利用方針をめぐる論点が目立ちます。同社はClaudeの軍事利用をめぐって米政府と対立し、安全上の「越えてはいけない線」を政策課題として扱う必要に迫られました。つまり、支出増は広告宣伝ではなく、事業継続に直結する制度交渉です。

政策文書と拠点整備が結ぶ議会接触

OpenAIは2025年3月、ホワイトハウスのAI行動計画に向けた提案を公開しました。そこでは、過度に重い州法への対応、輸出管理、著作権、インフラ、政府採用が一体の政策パッケージとして示されています。特に著作権については、AIモデルが公開情報から学習できる余地を守ることが米国の競争力に関わる、という立場を打ち出しています。

同社は2026年4月の「Industrial policy for the Intelligence Age」でも、超知能へ向かう時代には漸進的な政策更新だけでは足りないとし、政策研究や議論の場をワシントンで開くと説明しました。最大10万ドルの研究助成と最大100万ドル分のAPIクレジットを組み合わせる構想は、政策コミュニティとの接点を広げる狙いを持ちます。

この動きは、政府市場への参入とも重なります。OpenAIは2026年4月、ChatGPT EnterpriseとAPI PlatformがFedRAMP 20x Moderateの認可を得たと発表しました。FedRAMPは連邦政府向けクラウドサービスの安全性審査に関わる制度であり、認可は政府機関が管理された環境でAIを使う道を広げます。

政府が使うAIに選ばれることは、単なる売上の問題ではありません。調達基準、監査基準、データ保持、セキュリティ、モデルの説明責任が、民間市場の標準にも波及します。AI企業がワシントンに人員と拠点を置く理由は、法律の文言だけでなく、行政の実装ルールを早い段階から理解し、場合によっては形作るためです。

データセンターと著作権をめぐる制度設計

AIインフラ競争が押し上げる許認可需要

AIロビー活動の背景には、計算資源の物理的な制約があります。OpenAIはAWSとの複数年契約で380億ドル規模のクラウド利用を発表し、GPUクラスターや大規模CPU能力を使って生成AIワークロードを拡張すると説明しています。AnthropicもGoogle CloudのTPU利用拡大で、最大100万TPU、数十億ドル規模を超える投資、1ギガワット超の容量を2026年にオンライン化する計画を示しています。

これらの発表は、AIの競争力がアルゴリズムだけでは決まらないことを示します。データセンターは電力、送電網、冷却、水、土地利用、半導体供給に依存します。そこで企業は、エネルギー許認可の迅速化、送電インフラの更新、データセンター建設の規制緩和をワシントンで求めるようになります。

ホワイトハウスが2025年7月に公表した「America’s AI Action Plan」も、この流れを後押ししました。同計画は90件超の連邦政策行動を掲げ、柱としてAIイノベーションの加速、米国AIインフラの構築、国際外交・安全保障での主導を置いています。データセンターや半導体工場の許認可を迅速化する方針は、AI企業の要望と重なります。

Public Citizenの分析でも、AIロビー活動はモデル企業だけに閉じていません。2025年には3,570人の連邦ロビイストがAI関連課題に一度以上関与し、全連邦ロビイストの26%を占めました。同団体は、AI関連ロビイスト数が3年間で約168%増え、データセンター関連のロビイストは約500%増えたと分析しています。

学習データと政府採用に広がる政策争点

著作権も、AI企業のワシントン戦略を左右する中核論点です。生成AIは大量のテキスト、画像、コード、音声を学習して能力を高めます。出版社、作家、音楽業界、映像業界は、無断学習や出力物による代替リスクを問題視しています。一方、AI企業は、学習の自由を狭めすぎれば米国モデルが国際競争で不利になると主張します。

OpenAIのAI行動計画向け提案は、この緊張をよく表しています。同社は、クリエイターの権利を守りながら、米国モデルが著作物から学ぶ能力を失わない著作権戦略を求めています。これは法廷での争いと並行する、政策面での防衛線です。判例が固まる前に、議会や行政がどのようなバランスを採るかが重要になります。

政府採用の争点も見逃せません。ホワイトハウスのAI行動計画は、連邦政府内でAI採用を加速し、国防総省での利用も進める方針を示しました。OpenAIのFedRAMP認可や、各社の政府向け製品整備は、この調達市場に対応する動きです。政府調達は、モデルの安全性評価や監査可能性を事実上の標準へ押し上げる力を持ちます。

ここで科学技術政策としての難しさが表れます。AIの能力は実験室で測れても、社会的な影響は制度と利用環境に依存します。例えば同じモデルでも、学校、病院、役所、軍事ネットワークで期待される安全性は異なります。ロビー活動とは、そうした利用環境ごとのルールを、自社に不利になりすぎない形で調整する行為でもあります。

州規制と軍事利用が招く政治的反作用

カリフォルニアSB53が作った透明性基準

連邦レベルの包括的AI法がない中で、州政府は独自に規制を進めてきました。カリフォルニア州のニューサム知事は2025年9月、SB53に署名しました。同州はこの法律を、フロンティアAI安全に関する全米初の州法と位置づけ、開発者による安全枠組み、透明性、重大な安全インシデントの報告などを求めています。

AI企業にとって州法の増加は、二つの意味を持ちます。一つは、消費者保護や安全性をめぐる信頼形成です。もう一つは、州ごとに異なる義務が積み重なるコストです。特にフロンティアモデルは一つのサービスが全米で提供されるため、州境ごとのルール差は製品設計やリリース判断に影響します。

トランプ政権は2025年12月、州AI法を抑える狙いを持つ大統領令を出しました。連邦官報に掲載された大統領令14365は、州ごとのAI規制が50の異なる制度を生み、スタートアップの負担になると主張しています。司法省にAI訴訟タスクフォースを設け、州法の評価や連邦資金との関係も検討させる内容です。

ここでOpenAIとAnthropicの違いが浮かびます。OpenAIは一貫して、州ごとの過度な規制が米国のAI競争力を削ぐという論理を強めています。Anthropicは、強い連邦基準がないまま州規制だけを先取りして消すことには慎重です。同社がPublic First Actionへの2000万ドル拠出で、州法の先取り排除に反対する姿勢を掲げたことは象徴的です。

Anthropicの安全路線と国防契約の摩擦

Anthropicは2026年2月、Public First Actionに2000万ドルを拠出すると発表しました。目的として、フロンティアAI企業の透明性、安全策、強い連邦ガバナンス、AIチップの輸出管理、バイオ兵器やサイバー攻撃への近接リスク対策を挙げています。同社は、規制は小規模開発者ではなく、最も強力なモデルを開発する企業に焦点を当てるべきだと説明しています。

さらに同社は2026年4月、従業員の任意拠出で運営される企業PAC「AnthroPAC」の設立へ動きました。TechCrunchは、連邦選挙委員会への組織届にAnthropicの財務担当者の署名があると報じています。これは、安全重視の企業であっても、政策形成が選挙資金と切り離せない米国政治の現実に入ったことを意味します。

一方で、Anthropicの安全路線は国防利用と衝突しました。AP通信によると、同社は軍事利用をめぐる制限を撤回しなかったことを理由に、トランプ政権から「サプライチェーンリスク」とされたとして提訴しました。争点は、国内大量監視や完全自律型兵器にAIを使うことを認めるかどうかです。

この対立は、AI規制論争の本質を露出させました。安全性は企業イメージのための言葉にとどまらず、政府契約、国防調達、外交、輸出管理と結びつく実務上の条件になります。AI企業が安全を掲げるほど、政府が求める利用範囲との摩擦は大きくなります。そこにロビー活動が必要になる構造があります。

読者が注視すべきAI政策の三つの焦点

AIロビー活動を読むうえで、注目すべき焦点は三つです。第一に、連邦政府がどこまで州規制を上書きするのかです。第二に、著作権と学習データのルールが、クリエイター保護とAI開発のどちらへ傾くのかです。第三に、政府調達と国防利用で、安全性の線引きがどこに置かれるのかです。

OpenAIとAnthropicの動きは、AI企業が制度の外側から革新する存在ではなく、制度そのものを設計する当事者になったことを示します。投資家や利用企業は、モデル性能や料金だけでなく、ロビー開示、政府調達基準、州法、大統領令、著作権訴訟を同じ地図の上で確認する必要があります。AIの競争力は、研究成果だけでなく、ワシントンで作られるルールにも左右される局面に入っています。

参考資料:

坂本 亮

テクノロジー・サイエンス

宇宙開発・AI・バイオテクノロジーなど最先端の科学技術を、社会的インパクトの視点から読み解く。技術と倫理の交差点を追い続ける。

関連記事

AIモデル事前審査へ揺れる米政権とサイバー安全保障政策の境界線

トランプ政権がAIモデルの公開前審査を検討する背景には、AnthropicのMythosが示した脆弱性探索能力と、国防・政府調達でのAI利用拡大があります。規制緩和路線との矛盾、CAISIや英国AISI、EU AI法との違い、企業の競争圧力と日本への示唆も踏まえ、安全保障型AI統治の行方を詳しく解説。

AI企業は「善良」でいられるか 利益と倫理が衝突する構造的矛盾

Anthropicが国防総省との対立で連邦政府から排除され、OpenAIは非営利から公益法人への転換を完了した。AI企業は善良さと利益を本当に両立できるのか。安全政策の後退、安全責任者の辞任、巨額著作権訴訟が相次ぐ中、AI産業が直面する倫理的課題と公益法人という企業形態の構造的限界を技術と社会の交差点から読み解く。

ジャグド・インテリジェンスが変えるAI能力論と雇用論点の再整理

AIは人間並みかという問いでは、仕事への影響を読み違えます。ハーバードとBCGの758人実験、NBERの職場研究、Anthropic・ILO・WEF・OpenAIの公開データ、SimpleQAやARC-AGI-2の評価を横断し、能力のムラ、現場導入の条件、置き換わる業務と残る人間の役割を読み解きます。

最新ニュース

中国レアアース規制が握るトランプ対中外交の主導権争いと新焦点

中国がレアアース輸出許可を外交カード化し、トランプ政権の対中交渉と米国防産業を揺さぶっています。4月規制、10月拡大策、11月停止の残存リスクを整理し、IEAや米政府資料が示す供給集中の実態、米中首脳会談で問われる取引の限界、日本・欧州の脆弱性、半導体、EV、航空防衛をまたぐ影響と今後の焦点を読み解く。

ゴールデンドーム1.2兆ドル試算が問う宇宙ミサイル防衛の現実

CBOがゴールデンドーム型ミサイル防衛の20年費用を1.2兆ドルと試算。宇宙配備迎撃体が総額の6割を占める構造を軸に、米国防予算、核抑止、中国・ロシア対応、同盟国への影響、議会審査の焦点を整理。政府側1,850億ドル説明との隔たりから、米国の宇宙防衛構想の現実性とリスクを技術・財政・戦略面から読み解く。

Polymarket疑惑が映す予測市場の内部情報規制の新局面

Polymarketで相次ぐ長期薄商い市場の高精度な賭けは、予測市場を価格発見の道具から内部情報取引の舞台へ変えつつあります。米軍作戦、イラン戦争、暗号資産関連の事例、CFTCの法執行と議会規制を整理し、匿名ウォレットの透明性と限界、投資家が読むべき市場シグナルの危うさを金融規制の次の争点として解説。

米国学力低下の深層、世代を超える成績後退と格差拡大の重い実像

2024年NAEPと2026年Education Scorecardは、米国の読解・数学低迷がコロナ禍だけでなく2013年前後から続く学習後退であることを示す。慢性欠席率28%、10代の常時オンライン化、連邦支援後の学校区差、科学的読解指導の広がりを軸に、格差を再生産する構造と課題の現在地を読み解く。

がん患者に広がるイベルメクチン処方急増と著名人発信の危うい影響

俳優メル・ギブソンのポッドキャスト発言後、がん患者のイベルメクチンと駆虫薬処方が2.6倍に増えた研究が公表された。臨床根拠が乏しい治療説はなぜ広がるのか。フェンベンダゾールの肝障害リスク、標準治療を遅らせる危険、著名人発信が医療選択を動かす仕組みを、米国の公衆衛生とカルチャーの交差点から丁寧に解説。