AI20分で読める

DeepSeek V4が1兆パラメータで登場——オープンソースAIの新王者

1兆パラメータ、100万トークンのコンテキスト、テキスト・画像・動画・音声のネイティブ対応——中国のAI企業DeepSeekが、オープンソース史上最大規模のマルチモーダルAIモデル「DeepSeek V4」のリリースを間近に控えています。2025年1月にDeepSeek R1で世界のAI業界を震撼させた同社が、わずか1年余りで次の大型モデルを投入する形です。

DeepSeek R1のリリース時には、OpenAIのo1に匹敵する推論性能を数分の1のコストで実現したことが話題となり、米国テック株が一時急落する「DeepSeekショック」を引き起こしました。今回のV4は、そのDeepSeekがフルスケールの汎用AIモデルとして何ができるかを示す、いわば集大成のプロジェクトです。

DeepSeek V4とは何か——1兆パラメータMoEの全容

DeepSeek V4の最大の特徴は、Mixture-of-Experts(MoE)アーキテクチャを採用した1兆パラメータという圧倒的な規模です。MoEとは、モデル内に数百の「エキスパート」と呼ばれるサブネットワークを持ち、入力に応じて最適なエキスパートだけを活性化させるアーキテクチャです。

以下の図は、DeepSeek V4のMoEアーキテクチャがどのように動作するかを示しています。

DeepSeek V4のMoEアーキテクチャ概念図——入力がゲーティングルーターで振り分けられ、専門エキスパートが処理する仕組み

この図が示すように、1兆パラメータの全てが常に稼働するわけではありません。推論時には全体の約10〜15%のパラメータのみが活性化されるため、見かけのパラメータ数に比べて計算コストが大幅に低いという利点があります。これはDeepSeekが以前からR1やV3で採用してきたアプローチの延長線上にあり、V4ではそのスケールを桁違いに拡大しています。

主要スペック

V4の公開されているスペックを整理すると、以下のようになります。

項目DeepSeek V4DeepSeek V4 Lite
パラメータ数1兆(MoE)2000億(MoE)
アクティブパラメータ推定1000〜1500億推定200〜300億
コンテキスト長100万トークン未公開
モダリティテキスト/画像/動画/音声テキスト/画像
チップ最適化Huawei Ascend / Cambricon同左
ライセンスオープンソース予定オープンソース予定
ステータスリリース間近社内テスト中

注目すべきは、V4がネイティブマルチモーダルであるという点です。従来のモデルの多くは、テキスト処理の基盤モデルに画像・音声処理を後付けで統合する方式を採っていましたが、V4は設計段階からテキスト・画像・動画・音声を統合的に処理するよう設計されています。これにより、モダリティ間の相互理解がより深いレベルで実現されると期待されています。

MoEアーキテクチャの技術的意義

MoEアーキテクチャは近年のAIモデル開発における主流のアプローチになりつつあります。その理由を理解するために、従来の「Dense(密)モデル」との違いを解説します。

Denseモデル vs MoEモデル

従来のDenseモデル(GPT-3やLLaMA 2など)は、全てのパラメータが全ての入力に対して計算されます。パラメータ数を増やせば性能は上がりますが、計算コストも線形に増加します。1兆パラメータのDenseモデルを推論させるには膨大なGPUメモリと計算時間が必要で、実用的ではありません。

一方、MoEモデルは「ゲーティングルーター」が入力トークンごとに最適なエキスパートを2〜4個選択し、それらだけを活性化させます。これにより以下のメリットが生まれます。

  1. 計算効率: 1兆パラメータ分の「知識」を持ちながら、推論時の計算量は1000億パラメータ級のDenseモデルと同等
  2. 専門化: 各エキスパートが特定の領域(数学、コード、自然言語理解など)に特化するため、幅広いタスクで高い性能を発揮
  3. スケーラビリティ: エキスパート数を増やすことで、計算コストをほぼ据え置きのまま性能を向上可能

DeepSeekはV3(2024年12月リリース、6710億パラメータMoE)ですでにこのアプローチの有効性を実証しており、V4ではパラメータ数を約1.5倍に拡大しつつ、マルチモーダル対応を追加した形です。

Huawei・Cambricon チップへの最適化

V4の技術的に最も興味深い側面の一つが、NVIDIAのGPUに依存しない設計です。米国の対中半導体輸出規制により、中国企業はNVIDIAの最新GPU(H100、B200など)を入手できない状況が続いています。

DeepSeekはこの制約を逆手に取り、V4をHuaweiのAscend 910Bプロセッサおよび寒武紀(Cambricon)のMLUチップ向けに最適化しました。これはDeepSeekの技術力を示すだけでなく、中国のAIハードウェアエコシステムが実用レベルに達しつつあることを示唆しています。

DeepSeek R1がNVIDIA H800(H100の中国向け性能制限版)で訓練されたのに対し、V4が中国国産チップで訓練されたとすれば、これは半導体の地政学においても大きな転換点となります。

主要AIモデルとの比較

2026年3月現在、主要なフロンティアAIモデルのスペックを比較したのが以下の図です。

2026年主要AIモデルのスペック比較——DeepSeek V4、GPT-5、Claude Opus 4.6、Gemini 2.5 Ultraの性能を一覧化

この比較から、DeepSeek V4のポジショニングが明確になります。

比較項目DeepSeek V4GPT-5Claude Opus 4.6Gemini 2.5 Ultra
パラメータ1兆(MoE)非公開(MoE推定)非公開非公開(MoE推定)
コンテキスト100万トークン25.6万トークン100万トークン200万トークン
マルチモーダルテキスト/画像/動画/音声テキスト/画像/音声テキスト/画像テキスト/画像/動画/音声
オープンソースはいいいえいいえいいえ
API料金(入力)未定(R1比で推定$0.5-1/Mトークン)$10/Mトークン$15/Mトークン$7/Mトークン
訓練チップHuawei Ascend / CambriconNVIDIA B200NVIDIA / Google TPUGoogle TPU v5p

DeepSeek V4の最大の差別化要因はオープンソースであることです。GPT-5、Claude Opus 4.6、Gemini 2.5 Ultraはいずれもプロプライエタリモデルであり、利用にはAPI料金が必要です。V4がオープンソースでリリースされれば、企業や研究者が自社インフラ上で自由にモデルを実行・カスタマイズできるようになります。

料金面での影響

DeepSeek R1のAPI料金は入力$0.55/Mトークン、出力$2.19/Mトークンと、OpenAIのo1(入力$15/Mトークン)の約27分の1という破格の水準でした。V4の料金は未発表ですが、同社の価格戦略を考えると、競合モデルの数分の1〜10分の1になる可能性が高いでしょう。

さらにオープンソースであれば、セルフホストすることでAPI料金そのものが不要になります。大量のAI推論を行う企業にとって、これは年間数億円単位のコスト削減になり得ます。1ドル=150円換算で、GPT-5の入力コスト($10/Mトークン、約1,500円/Mトークン)と比較すれば、その差は歴然です。

DeepSeek V4 Lite——軽量版の戦略

V4と同時に開発が進められているのが、V4 Lite(2000億パラメータ)です。現在社内テスト段階にあるこのモデルは、V4のアーキテクチャを踏襲しつつ規模を5分の1に圧縮したバージョンです。

V4 Liteの戦略的意義は以下の通りです。

  1. エッジデプロイメント: 1兆パラメータのV4はデータセンター級のインフラが必要ですが、2000億パラメータのLiteは比較的小規模なサーバーでも動作可能
  2. 量子化対応: 4bit量子化を適用すれば、理論上はハイエンドワークステーション(VRAM 96GB×2程度)でも推論可能になる可能性
  3. ファインチューニング基盤: 企業がドメイン特化のカスタムモデルを構築する際の基盤モデルとして最適なサイズ
  4. 段階的リリース: Liteを先行テストすることで、フルサイズV4のリリース前にアーキテクチャの問題点を洗い出す

MetaのLLaMA 3.1(405Bパラメータ)がオープンソースモデルの実用的な上限と考えられていた中、V4 Liteの2000億パラメータMoEは、LLaMA 3.1に匹敵またはそれ以上の性能を、より少ない計算コストで実現する可能性があります。

オープンソースAIの勢力図を塗り替える

DeepSeek V4のオープンソースリリースは、AI業界の勢力図に大きな影響を与えます。現在のオープンソースAIモデルの主要プレイヤーを比較してみましょう。

モデル開発元パラメータリリース時期ライセンス
DeepSeek V4DeepSeek1兆(MoE)2026年3月予定オープンソース予定
LLaMA 3.1Meta4050億2024年7月カスタムライセンス
Mixtral 8x22BMistral1410億(MoE)2024年4月Apache 2.0
DeepSeek V3DeepSeek6710億(MoE)2024年12月MIT
Qwen 2.5Alibaba720億2024年9月Apache 2.0

V4がMITライセンス(V3と同様)でリリースされた場合、商用利用も含めて自由に利用可能になります。これはPerplexityのようなAI搭載サービスにとって、バックエンドモデルの選択肢が大幅に広がることを意味します。

米中AI競争の文脈

DeepSeek V4は単なるAIモデルのリリースではなく、米中AI競争における中国側の大きな一手としても注目されています。

米国政府は2022年以降、NVIDIAの高性能GPU(A100、H100)の中国への輸出を規制してきました。この規制は中国のAI開発を遅らせることを目的としていましたが、DeepSeekはR1の成功で「規制があっても世界トップレベルのAIモデルを開発できる」ことを証明しました。

V4がHuaweiとCambriconのチップで訓練されているとすれば、これは「NVIDIAなしでもフロンティアモデルを構築できる」という、さらに強いメッセージになります。これは米国の半導体規制政策の有効性そのものに疑問を投げかけるものであり、今後の規制の方向性にも影響を与えるでしょう。

日本への影響——活用の好機とリスク

DeepSeek V4の登場は、日本のAI活用に大きな影響を与える可能性があります。

ビジネスチャンス

1. コスト削減: 現在、多くの日本企業がOpenAIやAnthropicのAPIに年間数千万円〜数億円を支払っています。V4をセルフホストすれば、このコストを大幅に削減できます。特にコールセンターのAI応答、社内文書の要約、コード生成など大量の推論が必要なユースケースで効果が大きいでしょう。

2. データ主権: オープンソースモデルをオンプレミスで運用すれば、機密データを外部APIに送信する必要がなくなります。金融機関、医療機関、官公庁など、データの外部送信に制約がある組織にとって、これは決定的なメリットです。

3. 日本語性能の期待: DeepSeek V3は日本語性能でもGPT-4oに匹敵する水準を示しており、V4ではさらなる改善が期待されます。100万トークンのコンテキストは、日本語の長文(法律文書、契約書、技術仕様書など)の処理に特に有効です。

リスクと懸念

1. 安全保障リスク: 中国企業が開発したモデルに対しては、日本政府や一部の企業からデータセキュリティ面での懸念が出る可能性があります。ただし、オープンソースであればコードの監査が可能なため、ブラックボックス型のAPIよりもむしろ透明性は高いという見方もできます。

2. 検閲とバイアス: DeepSeekのモデルは、天安門事件や台湾問題など特定のトピックについて回答を拒否することが知られています。日本企業が業務で使用する場合、このような検閲が業務に影響しないか確認が必要です。ただし、オープンソースであれば検閲フィルターを除去したファインチューニング版を構築することも技術的には可能です。

3. 運用コスト: 1兆パラメータのモデルをセルフホストするには、最低でもGPUサーバー数十台規模のインフラが必要です。クラウド利用の場合でも月額数百万円のインフラコストがかかるため、小規模な企業にとっては依然としてChatGPT PlusClaude Proのサブスクリプション(月額約3,000円)の方が現実的な選択肢です。

日本のAIスタートアップへの示唆

日本のAIスタートアップにとって、DeepSeek V4は「自社でファインチューニングした独自モデルをプロダクトの差別化要因にする」という戦略を、より低コストで実現できるようにします。

例えば、日本語の医療文書に特化したモデルや、製造業の品質管理に特化したモデルなど、ドメイン特化型のAIサービスをV4ベースで構築することが考えられます。100万トークンのコンテキスト長は、長大な仕様書や過去のやり取り全てをコンテキストに含められるため、RAG(検索拡張生成)に頼らない高精度な回答が可能になります。

DeepSeekの成長と企業プロフィール

DeepSeekは中国の量的ヘッジファンド「幻方量化(High-Flyer Quantitative)」の創業者、梁文鋒(Liang Wenfeng)氏が2023年に設立したAI研究企業です。設立からわずか3年でフロンティアAIモデルの開発企業として世界的な認知を獲得しました。

同社の主なマイルストーンは以下の通りです。

  • 2023年: DeepSeek設立、LLM開発を開始
  • 2024年5月: DeepSeek V2リリース(2360億パラメータMoE)。API料金の安さで注目
  • 2024年12月: DeepSeek V3リリース(6710億パラメータMoE)。GPT-4oに匹敵する性能
  • 2025年1月: DeepSeek R1リリース。推論特化モデルでo1に匹敵、「DeepSeekショック」で米国テック株急落
  • 2026年3月: DeepSeek V4リリース予定(1兆パラメータMoE、マルチモーダル)

DeepSeekの特筆すべき点は、OpenAI(推定$10B以上の年間コスト)やGoogle DeepMind(数千人のエンジニア)と比較して、はるかに小さなチームと限られた予算で競争力のあるモデルを開発してきたことです。R1の訓練コストはわずか約$5.5M(約8.3億円)と報告されており、効率性の面でも業界をリードしています。

まとめ——今すぐ取るべきアクション

DeepSeek V4は、1兆パラメータ・マルチモーダル・オープンソースという3つの要素を兼ね備えた、AI業界にとって画期的なモデルになる可能性があります。リリースに備えて、以下のアクションを推奨します。

  1. 情報収集を開始する: DeepSeekのGitHubリポジトリ(github.com/deepseek-ai)とHugging Faceページをウォッチし、リリース直後にモデルカードとベンチマーク結果を確認しましょう。

  2. インフラの検討を始める: V4のセルフホストを検討している場合、必要なGPUメモリと計算リソースの見積もりを開始しましょう。V4 Liteであれば比較的小規模なインフラでも動作する可能性があります。AWSGoogle CloudのGPUインスタンスの料金も確認しておくとよいでしょう。

  3. ユースケースを特定する: 自社のAI活用において、オープンソースモデルに切り替えることで最もコスト削減効果が大きいユースケースを洗い出しましょう。大量の推論を行うバッチ処理や、データの外部送信が制限されるケースが最有力候補です。

  4. 競合モデルとの比較テストを準備する: V4リリース後、自社のタスクでGPT-5、Claude Opus 4.6、Gemini 2.5 Ultraとの性能比較を行う計画を立てておきましょう。Perplexityのようなツールで最新の評価情報を追跡するのも有効です。

  5. 検閲・バイアスの評価計画を立てる: 業務利用を検討する場合、自社のドメインで検閲やバイアスが問題にならないか、テストシナリオを準備しておきましょう。

中国発のオープンソースAIモデルが、米国のプロプライエタリモデルに真正面から挑戦する——DeepSeek V4は、AI民主化の次の大きな一歩となるかもしれません。

この記事をシェア