ChatGPTアンインストール295%急増、Claudeが米App Store首位に——軍事契約への反発
前日比295%増のアンインストール——2026年2月28日、ChatGPTのアプリ削除数が異常な急増を記録しました。きっかけは、OpenAIが米国防総省との大規模な軍事利用契約を正式に発表したことです。同日、Claudeのダウンロード数は前日比51%増加し、Anthropic製AIアシスタントとして初めて米国App Storeの総合ランキング1位を獲得しました。
この出来事は、AIツールの選択が単なる「性能比較」から「倫理的価値観の表明」へと変わりつつあることを象徴しています。本記事では、今回の騒動の全貌、背景にある消費者心理の変化、そして日本市場への影響を徹底解説します。
何が起きたのか — 時系列で振り返る
2026年2月28日、OpenAIは米国防総省および複数の防衛関連機関との包括的なAI技術提供契約を発表しました。契約の具体的な金額は非公開ですが、複数の報道によると数十億ドル規模とされています。
この発表を受けて、ソーシャルメディアではOpenAIに対する抗議の声が即座に拡散しました。X(旧Twitter)では「#DeleteChatGPT」がトレンド入りし、TikTokではChatGPTのアンインストール手順を紹介する動画が数百万回再生されました。
以下の図は、ChatGPTのアンインストール数の前日比増加率を示しています。
この図が示すように、2月28日のアンインストール急増は突発的なものです。前日までの増加率は12〜55%程度で推移していましたが、発表当日に一気に295%まで跳ね上がりました。翌3月1日も180%増と高水準が続いており、一過性のバズではなく継続的な離脱が起きていることがわかります。
アプリ調査会社Sensor Towerのデータによると、ChatGPTの米国内デイリーアクティブユーザー(DAU)は発表前の約3,200万人から、3月第1週には約2,750万人へと約14%減少しました。一方、Claudeアプリの米国内DAUは同期間に約420万人から約680万人へと約62%増加しています。
なぜ軍事契約がここまでの反発を招いたのか
OpenAIの軍事契約に対する反発の根底には、同社の「出自」に対する裏切りの感情があります。
OpenAIは2015年の設立当初、非営利団体として「AIを人類全体の利益のために開発する」という使命を掲げていました。2019年に営利部門を設立した際にも、「利益上限付き(capped-profit)」モデルを採用し、商業化しつつも公益性を維持する姿勢を見せていました。
しかし、その後の動きは設立理念からの逸脱と受け取られてきました。
| 時期 | 出来事 | ユーザーの反応 |
|---|---|---|
| 2019年 | 営利部門設立 | 懐疑的だが許容 |
| 2023年 | Sam Altman CEO解任騒動 | ガバナンスへの不信 |
| 2024年 | 完全営利法人への転換発表 | 批判が顕在化 |
| 2025年 | 防衛分野でのAI利用方針緩和 | 抗議の声が拡大 |
| 2026年2月 | 国防総省との大規模契約発表 | アンインストール急増 |
特に重要なのは、OpenAIが2023年まで社内規定で「軍事・戦争目的でのAI利用」を明確に禁止していた点です。2024年1月にこの規定が削除され、2025年には防衛分野でのパイロットプログラムが開始されました。今回の大規模契約は、この段階的な方針転換の到達点であり、多くのユーザーにとって「最後の一線を越えた」出来事でした。
Claudeが米App Store 1位を獲得 — Anthropicの躍進
ChatGPTからの離脱ユーザーの多くが向かった先は、AnthropicのClaudeでした。2月28日から3月2日にかけて、Claudeアプリのダウンロード数は前日比51%増を記録し、米国App Storeの総合ランキングで初の1位を獲得しました。
以下の図は、軍事契約発表前後の米国AIチャットアプリのダウンロード数シェア変動を示しています。
この図が示すように、ChatGPTのダウンロードシェアは58%から41%へと17ポイント下落した一方、Claudeは14%から27%へと13ポイント上昇しました。GoogleのGeminiも微増していますが、Claudeの伸びが圧倒的です。
Anthropicが「倫理的な代替先」として選ばれた背景には、同社の一貫した姿勢があります。
Anthropicの差別化ポイント
-
公益法人(PBC)構造の維持: Anthropicは設立当初からPublic Benefit Corporation(公益法人)として登記されており、株主利益だけでなく社会的利益を考慮する法的義務を負っています。OpenAIが営利法人に転換する中、この構造的差異が際立っています。
-
軍事利用の明確な制限: Anthropicの利用規約では、AIの軍事目的での使用に対して厳格な制限を設けています。直接的な兵器開発への利用は禁止されており、防衛関連の利用も人道的な用途に限定されています。
-
Constitutional AI(憲法AI): Anthropicが開発したAI安全性フレームワークは、AIの応答に倫理的な制約を組み込む技術的アプローチです。「AIの安全性を最優先にする企業」というブランドイメージが、今回の騒動で大きなアドバンテージとなりました。
-
創業者の経歴: CEOのDario AmodeiとCSOのDaniela Amodeiは、いずれもOpenAIの元幹部です。OpenAIの安全性への取り組みが不十分だと感じて退社し、Anthropicを設立したという経緯が、今回の文脈で改めて注目されています。
AIアシスタント主要4サービスの比較
現在の主要AIアシスタントを、性能・価格・倫理的姿勢の観点から比較します。
| 項目 | ChatGPT Plus | Claude Pro | Gemini Advanced | Perplexity Pro |
|---|---|---|---|---|
| 月額料金 | $20(約3,000円) | $20(約3,000円) | $19.99(約3,000円) | $20(約3,000円) |
| 最新モデル | GPT-5 | Claude 3.5 Opus | Gemini 2.0 Ultra | Sonar Large |
| コンテキスト長 | 128K | 200K | 1M | 128K |
| マルチモーダル | テキスト/画像/音声 | テキスト/画像 | テキスト/画像/音声/動画 | テキスト/画像 |
| 法人形態 | 営利法人(転換中) | 公益法人(PBC) | 上場企業子会社 | 営利法人 |
| 軍事利用方針 | 国防総省と契約 | 厳格に制限 | 国防関連契約あり | 制限あり |
| コード生成 | 優秀 | 非常に優秀 | 優秀 | 良好 |
| 日本語対応 | 優秀 | 良好 | 優秀 | 良好 |
性能面では4サービスに大きな差はなくなりつつあります。それだけに、「どのAI企業を支持するか」という価値観の要素が、サービス選択における新たな判断基準になっています。
「倫理的消費」がAI市場を動かす時代
今回の騒動は、AI業界における倫理的消費(Ethical Consumerism) の台頭を示す画期的な事例です。
従来、AIサービスの選択基準は「精度」「速度」「価格」といった機能的要素が中心でした。しかし、ChatGPTのアンインストール急増は、ユーザーが企業の価値観や行動に基づいてサービスを選び直す意思があることを明確に示しました。
この動きは、食品業界でのオーガニック・フェアトレード運動や、ファッション業界でのサステナブル消費と同じ構造です。AI市場が成熟し、各サービスの機能差が縮小するにつれ、「その企業が何を大切にしているか」が差別化要因になっています。
Apptopiaのアナリスト、Sarah Chen氏は次のように分析しています。「2026年は、AI業界において倫理的ポジショニングが市場シェアを左右する最初の年になるでしょう。ChatGPTの離脱は一時的なものではなく、構造的なシフトの始まりです。」
OpenAIの対応
OpenAIは発表の翌日、ブログ投稿で軍事契約の詳細を説明しました。主なポイントは以下の通りです。
- 契約は「防衛目的のサイバーセキュリティ」「退役軍人支援」「災害対応」が中心
- 自律型兵器の開発には一切関与しない
- 独立した倫理審査委員会が各プロジェクトを監督
- 契約による収益の一部をAI安全性研究に再投資
しかし、この説明は批判を鎮めるには不十分でした。「軍事利用を禁止していた企業が、段階的に方針を緩和し、最終的に大規模契約に至った」というナラティブが定着しており、個別の契約内容の説明だけでは信頼回復は困難です。
日本市場への影響 — まだ波及は限定的だが注視が必要
日本市場では、今回の騒動の影響は現時点で限定的です。その理由はいくつかあります。
影響が限定的な理由:
- 法人利用が中心: 日本のAIチャットツール市場は個人利用よりも法人利用の比率が高く、法人はサービスの安定性と機能を重視するため、倫理的な議論による切り替えは起きにくい
- 報道の温度差: 米国ではソーシャルメディアを中心に大きな話題となりましたが、日本の主要メディアでの報道は限定的
- 代替サービスの認知度: 日本ではClaude、Gemini、Perplexityの認知度がChatGPTと比較してまだ低い
今後注視すべきポイント:
しかし、中長期的には日本市場にも影響が波及する可能性があります。
- ESG投資の観点: 日本企業がAIサービスを調達する際、提供元企業のESG(環境・社会・ガバナンス)リスクを評価する動きが広がれば、OpenAIの軍事契約はネガティブ要因になり得る
- 教育機関の判断: 大学や研究機関がAIツールを採用する際、軍事利用への関与を問題視する可能性がある
- Z世代の価値観: 日本のZ世代も倫理的消費への関心は高まっており、AIサービスの選択にも影響し得る
AIツール選択の新基準 — 何を見て選ぶべきか
今回の騒動を踏まえ、AIツール選択時にチェックすべき5つのポイントを整理します。
- 法人形態と定款: その企業は営利法人か公益法人か。利益追求と社会的責任のバランスがどう設計されているか
- 利用規約のポリシー: 軍事利用・監視目的の制限が明記されているか。過去に方針が変更されたことはあるか
- 安全性への投資: AI安全性研究にどれだけのリソースを投じているか。独立した安全性チームが存在するか
- 透明性: モデルの開発過程や利用データの取り扱いが公開されているか
- ガバナンス: 取締役会の構成、外部監査の有無、内部告発者保護の仕組みがあるか
まとめ — AIの選択は「性能」から「価値観」へ
ChatGPTのアンインストール295%急増とClaudeのApp Store 1位獲得は、AI市場に新しい競争軸が生まれたことを意味しています。性能や価格がコモディティ化する中、「その企業の倫理的姿勢」がサービス選択の決定打になる時代が到来しました。
今後、各AI企業は技術開発だけでなく、企業としての価値観や社会的責任を明確に示すことが求められるでしょう。ユーザーにとっては、自分が支持するAI企業の方針を理解した上で、意識的にサービスを選ぶ力がますます重要になります。
今すぐできるアクションステップ:
- 現在利用しているAIサービスの利用規約と倫理方針を確認する
- Claudeや他の代替サービスの無料版を試し、自分のユースケースに合うか検証する
- 法人利用の場合、AI調達基準にESGリスク評価の項目を追加することを検討する