AI17分で読める

Anthropic、軍事AI拒否でペンタゴンにブラックリスト入り

Anthropicが米国防総省(ペンタゴン)の正式なブラックリストに指定された。Claudeを大量監視や完全自律型兵器に使わせることを拒否したためだ。トランプ政権下で国防長官Pete Hegsethが「国家安全保障リスク」として同社を名指しし、すべての防衛契約から排除する通達を出した。AI業界で最も厳格な倫理基準を掲げてきた企業が、その姿勢ゆえに政府から敵視されるという前代未聞の事態は、AI倫理と国家安全保障の根本的な衝突を象徴している。

ブラックリスト指定の経緯——何が起きたのか

Anthropicは2025年後半から国防総省と機密ネットワーク(SIPR/JWICS)でのClaude運用について協議を進めていた。情報分析、ロジスティクス最適化、サイバー脅威検知といった非殺傷用途では協力関係が成立していた。しかし、2026年初頭に国防総省が求めた利用範囲が大幅に拡大されたことで状況が一変した。

国防総省がAnthropicに要求した内容は以下の3点だった。

  1. 完全自律型兵器システムへの統合 — ドローン群やミサイル防衛システムにおいて、人間の判断を介さない標的選定・交戦判断にClaudeを組み込むこと
  2. 国内大規模監視プログラムへの適用 — 米国市民の通信メタデータを含む大量のデータを処理・分析するシステムへの導入
  3. 安全ガードレールの完全解除 — 軍事用途ではClaudeの安全制限(有害出力の抑制、倫理的ガイドライン)をすべて無効化すること

Anthropicはこれら3つの要求をすべて拒否した。CEO Dario Amodeは社内向けメモで「これらの用途はわれわれの存在意義そのものに反する。安全性を犠牲にして収益を得ることは選択肢にない」と記したとされる。

この拒否に対し、国防長官Hegsethは即座に報復措置を取った。

  • 「国家安全保障上のサプライチェーンリスク」として正式指定 — 防衛関連のすべての契約・入札から即時排除
  • 防衛ベンダーへの「不使用証明」義務 — Anthropicモデルを使用していないことの書面による証明を全ベンダーに要求
  • 代替AI企業への移行指示 — OpenAI、Google、xAI、Palantirへの切り替え検討を各部門に通達

推定数億ドル規模の既存契約が一夜にして凍結され、Anthropicの企業価値にも直接的な打撃を与えている。

Responsible Scaling Policy(RSP)とは何か

Anthropicがブラックリスト入りの直接的原因となった**Responsible Scaling Policy(責任あるスケーリング方針)**は、AI業界で最も体系的な安全フレームワークの一つだ。

RSPの核心は「AIの能力レベルに応じて安全対策を段階的に強化する」という考え方にある。Anthropicは自社モデルの能力を**ASL(AI Safety Level)**として4段階に分類している。

  • ASL-1: 現在のAIシステム以前のレベル。特別な安全対策は不要
  • ASL-2: 現在のClaude 3.5〜4クラス。基本的な安全テストと利用制限を適用
  • ASL-3: 自律的な危険行動が理論上可能なレベル。厳格な監視と制限が必須
  • ASL-4: 壊滅的リスクを持つレベル。最も厳しい安全対策と外部監査が必要

軍事利用に関しては、RSPは明確な「レッドライン」を設定している。

  • 殺傷判断への関与禁止: AIが人間の生死を直接判断するシステムへの組み込みを禁止
  • 大量監視への利用禁止: 民主主義社会の基盤を損なう監視システムへの提供を禁止
  • 安全制限の解除禁止: いかなる顧客・用途でもガードレールを完全に無効化しない
  • 非殺傷用途での協力は許容: サイバーセキュリティ、情報分析、ロジスティクス等は対応可

この方針を守り通したことが、ペンタゴンとの決定的な対立を招いた。

以下の図は、主要AI企業の軍事AI対応を比較したものです。

主要AI企業の軍事AI対応比較。Anthropicは倫理方針堅持でブラックリスト入り、OpenAIは軍事禁止撤回で防衛契約を拡大、Googleは慎重だがJWCC参加、Palantirは防衛特化で最大の受注者、xAIは方針不明だがDOGE経由で接点拡大

この図が示すように、Anthropicは業界で唯一「軍事利用の無制限拡大を明確に拒否した」企業です。他社がペンタゴンとの関係を強化する中、孤立する構図が鮮明になっています。

他社との比較——軍事AI契約をめぐる各社の対応

ブラックリスト指定の背景をより深く理解するために、主要AI企業の軍事AI契約状況を整理する。

企業軍事AI方針主要防衛契約自律兵器への姿勢ペンタゴンとの関係
AnthropicRSPに基づく条件付き協力。無制限利用は拒否機密ネットワーク契約(凍結中)明確に禁止ブラックリスト指定
OpenAI2024年に軍事禁止を撤回。積極参入Anduril提携、CJADC2関連事実上許容移行候補として優遇
GoogleAI原則は維持するも防衛契約は拡大JWCC($9B枠組み契約)参加制限付き移行候補
Palantir創業時から防衛・情報機関特化米陸軍$823M、NSA、CIA積極的に支援最も親密
xAI公式方針なしDOGE経由で政府システムにアクセス不明マスク氏の政治的影響力
Metaオープンソースで間接的に軍事利用可能Llama防衛活用が増加明確な方針なし距離を置く

特に注目すべきはOpenAIの方針転換だ。OpenAIは2023年まで利用規約で軍事利用を明確に禁止していたが、2024年1月にこの条項を削除。その後、防衛テック企業Andurilとの提携やペンタゴンとの直接契約を急速に拡大してきた。CEOのSam Altmanは「国家安全保障への貢献は責任」と発言し、Anthropicとは対照的なスタンスを取っている。

Palantirはさらに踏み込んでいる。Peter Thiel が共同創業した同社は、設立当初からCIA・NSAなどの情報機関向けデータ分析プラットフォームを提供してきた。2025年には米陸軍との**$823M(約1,240億円)の契約**を獲得し、AIを活用した戦場意思決定支援システム「Maven Smart System」を展開している。Palantirにとって、Anthropicの排除は競合の退場を意味する。

AI倫理のスペクトラム——企業はどこに立つか

今回の事件は、AI企業が「倫理」と「ビジネス」のどちらを優先するかという根本的な問いを突きつけた。業界全体を見渡すと、各社のスタンスは一つのスペクトラム(連続体)上に分布していることがわかる。

以下の図は、AI企業の倫理ポリシーをスペクトラムとして視覚化したものです。

AI倫理ポリシーのスペクトラム図。左端の「倫理最優先」にAnthropicが位置し、中央にGoogle・Meta、右端の「商業最優先」にPalantir・xAIが位置する。OpenAIは2024年の方針転換で中央から右に移動した

この図が示すように、AI企業の倫理的スタンスは固定されたものではなく、ビジネス環境や政治的圧力に応じて変動します。OpenAIが2024年に大きく方針転換したことは、その典型例です。

「倫理を貫くコスト」の可視化

Anthropicのブラックリスト入りは、AI倫理を実践することの具体的なコストを初めて数値で示した事例と言える。

  • 直接的損失: 防衛契約の凍結で推定**$300M〜$500M(約450億〜750億円)**の収益機会を喪失
  • 間接的損失: 防衛ベンダーのサプライチェーンからの排除で、民間企業との取引にも波及
  • 評判リスク: 「政府から信頼されない企業」というレッテルが、エンタープライズ営業に影響
  • 人材流出リスク: 安全方針を重視して入社した研究者が、企業の存続リスクに直面

一方で、Anthropicの姿勢を支持する動きも少なくない。Microsoft は法廷助言(amicus curiae)を提出し「前例なき恣意的制裁だ」と批判。OpenAIとGoogleの社員22名が個人の立場で「安全対策を行う企業が罰せられれば業界全体の安全基準が崩壊する」と警告文を発表した。

ペンタゴンの「AI戦略」——なぜ今なのか

ブラックリスト指定の背景には、トランプ政権のAI国防戦略がある。2026年1月に発表された「National AI Defense Initiative(NADI)」は、以下の方針を掲げている。

  • AIの軍事統合を加速: すべての軍事部門でAI活用を義務化
  • 民間AI企業の「協力義務」: 防衛産業基盤法(Defense Production Act)の適用も視野
  • 中国・ロシアとの「AI軍拡競争」: 対抗上、AI開発のスピードを最優先
  • 安全制限の「過剰規制」排除: AI安全策が軍事イノベーションを阻害しないよう監視

このNADIの文脈で、Anthropicの安全方針は「中国に後れを取る原因」と位置づけられた。Hegseth国防長官は議会証言で「AIの安全性を口実に国防への協力を拒む企業は、事実上、米国の敵を利するものだ」と発言している。

また、Elon Musk率いるDOGE(Department of Government Efficiency)の影響力拡大も見逃せない。MuskはAnthropicの競合であるxAIのオーナーであり、政府のAI調達方針に間接的な影響力を持つ。利益相反の指摘は繰り返し出ているが、政権は否定を続けている。

法的争点——Anthropicの反撃

Anthropicは連邦裁判所に提訴し、ブラックリスト指定の**即時差止命令(preliminary injunction)**を求めている。法的主張は3本柱だ。

第1の柱: 適正手続き(Due Process)の欠如。サプライチェーンリスク指定は通常、DFARS(防衛連邦調達規則)に基づく詳細な調査と事前通知、反論の機会を経て行われる。今回は国防長官の一存で即時実行されており、手続き的正義が無視されている。

第2の柱: 恣意的権力行使。Anthropicが「リスク」と見なされた唯一の理由は、合法的なビジネス判断(特定用途への提供拒否)だ。これは行政手続法(APA)が禁じる「恣意的かつ気まぐれな(arbitrary and capricious)」政府行為に該当すると主張している。

第3の柱: 修正第1条(言論の自由)。企業の倫理方針は保護される「表現」であり、政府がこれを理由に制裁を加えることは憲法違反だとする。

法律専門家の多くは、少なくとも差止命令についてはAnthropic有利と見ている。特にMicrosoftや元国防高官の法廷助言は裁判所の判断に重大な影響を与えるだろう。

日本の防衛AIとAI倫理の議論

今回の事件は、日本の防衛AI戦略とAI倫理の議論にも直接的な影響を与える。

日本の防衛AI利用の現状

防衛省は2023年策定の「防衛力の抜本的強化に向けたAI活用方針」に基づき、以下の分野でAI導入を進めている。

  • 情報収集・画像解析: 人工衛星画像の自動分析、OSINT(公開情報分析)
  • サイバー防衛: AIによるリアルタイム脅威検知・自動隔離
  • ロジスティクス最適化: 装備品の予知保全、補給ルートの最適化
  • 意思決定支援: 作戦シナリオのシミュレーションと評価

一方、**自律型致死兵器(LAWS)**については、日本は国際的な議論の場で「有意な人間の制御(Meaningful Human Control)」の原則を支持する立場を維持している。国連の特定通常兵器使用禁止制限条約(CCW)の枠組みでは、完全自律型兵器の禁止を求める有力なグループに属する。

日本企業への影響

Anthropicのブラックリスト入りは、日本企業にとって以下の教訓を含む。

米国AI企業への依存リスク。防衛省や自衛隊がClaudeをはじめとする米国製AIモデルに依存している場合、米国政府の政策変更がそのまま日本の防衛システムに影響する。安全保障上の「技術主権」の重要性が改めて浮き彫りになった。

日本独自のAI開発の加速。NII(国立情報学研究所)や産総研が開発する日本語特化大規模言語モデルへの投資を、防衛用途の観点からも強化すべき局面にある。NTTの「tsuzumi」やPFNの「PLaMo」なども候補となりうる。

倫理ガイドラインの整備。日本のAI企業が防衛分野に参入する際の倫理基準を、政府主導で策定する必要がある。Anthropicの事例は、事前にルールを明確化しておかないと後で大きな紛争に発展することを示している。

AIガバナンスの国際連携

日本はG7の「広島AIプロセス」を主導した実績がある。今回のAnthropicの事件を受けて、AI軍事利用の国際ルール策定を加速させるべきだ。特に以下の3点が優先課題となる。

  1. 自律型兵器の定義と規制の国際合意
  2. **AI企業の「拒否権」**を法的に保護する枠組みの構築
  3. 同盟国間でのAI安全基準の相互認証の仕組み作り

今後の展望——3つのシナリオ

この対立の行方は、AI産業全体の方向性を左右する。

シナリオ1: Anthropic勝訴 → 企業の拒否権が確立 裁判所がブラックリスト指定を違法と判断すれば、AI企業が安全方針に基づいて特定の用途を拒否する権利が法的に認められる。業界全体の安全基準が維持される方向に作用する。

シナリオ2: 政府勝訴 → 「協力義務」の前例化 政府が国家安全保障を理由にAI企業への事実上の協力義務を課せる前例ができる。AI企業にとって安全対策は「ビジネスリスク」となり、倫理基準の切り下げ競争が始まる恐れがある。

シナリオ3: 条件付き和解 → 新たな枠組みの模索 Anthropicが非殺傷用途での協力範囲を拡大する一方、ブラックリスト指定は解除される。軍事AI利用のガバナンス枠組みを官民で構築する契機となる可能性がある。最も現実的な着地点と見られている。

まとめ——AI倫理は「コスト」か「投資」か

Anthropicのブラックリスト入りは、AI倫理を実践することの代償をリアルに示した。しかし同時に、MicrosoftやOpenAI社員が支持に回ったことは、業界が「安全対策を罰する前例」を許さない決意を持っていることも証明した。

Claude Proを開発するAnthropicが引いた「赤い線」は、AI時代における技術企業と国家権力の関係を根本から問い直すものだ。

アクションステップ

  1. AI企業の方針を確認する: 自社が利用するAIサービス(Claude、GPT、Gemini等)の軍事利用方針と倫理ポリシーを確認し、リスク評価に反映させる。特に防衛・安全保障関連の業務でAIを利用している場合は、ベンダーの政治リスクも考慮すべきだ
  2. 日本のAI倫理議論に参加する: 経済産業省のAIガバナンス・ガイドラインや、総務省のAI利活用ガイドラインへのパブリックコメントに積極的に意見を提出する。Anthropicの事例を踏まえた具体的な提言が求められている
  3. 技術主権への投資を検討する: 日本語特化の大規模言語モデル(NTT tsuzumi、PFN PLaMo等)の動向をウォッチし、安全保障上の観点から国産AI技術の活用可能性を評価する。クラウドインフラも含め、特定の海外企業への過度な依存を見直す時期に来ている

この事件の結末は、AI技術が「誰のために」「どのように」使われるかを決める分水嶺となる。Anthropicの選択が正しかったかどうかは歴史が判断するが、少なくとも彼らは「選択する権利」のために戦っている。

この記事をシェア