半導体13分で読める

Metaが自社AIチップMTIA 4世代を一挙発表——Nvidia依存脱却の本気度

Meta(旧Facebook)が、自社開発のカスタムAIチップ「MTIA」の4世代——MTIA 300・400・450・500を一挙に公開した。わずか2年の間に4世代を投入するという異例のペースだ。同社は現在、Nvidia GPU に年間数百億ドル規模の投資を行っているが、MTIA の大規模展開により推論コストを大幅に削減し、Nvidia 依存から段階的に脱却する戦略を鮮明にした。

30億人以上のユーザーを抱える Facebook・Instagram・WhatsApp・Threads のフィード最適化、広告ランキング、そして Llama ベースの生成 AI 機能——これらすべてを自社チップで処理する未来を、Meta は本気で描いている。

MTIA とは何か

MTIA は「Meta Training and Inference Accelerator」の略で、Meta が社内で設計するカスタム AI チップだ。汎用的な GPU とは異なり、Meta のワークロードに特化した設計が最大の特徴となる。

一般的に、Nvidia の H100 や B200 といった GPU は「あらゆる AI タスクに対応できる汎用性」を強みとする。しかし、その汎用性ゆえに特定のワークロードに対してはオーバースペックになりがちで、電力効率やコスト効率の面で無駄が生じる。MTIA はこの「汎用性の無駄」を排除し、Meta の推論ワークロード——特にレコメンデーション、ランキング、生成 AI 推論——に最適化されたアーキテクチャを採用している。

チップの製造は TSMC(台湾積体電路製造)に委託しており、設計は Meta のシリコンエンジニアリングチームが担当する。Google の TPU や Amazon の Trainium と同じ「ファブレス+ファウンドリ」モデルだ。

MTIA 世代別スペック

以下の図は、MTIA 300 から 500 までの4世代の進化を示している。

MTIA世代別スペック比較

この図は、各世代のプロセスノード、主な用途、展開時期、および技術的特徴を一覧で比較したものだ。TSMC 5nm から 3nm へとプロセスが微細化するに従い、対応ワークロードも拡大していることがわかる。

MTIA 300 — 量産投入の第一歩

MTIA 300 は、Meta が初めてデータセンターに大規模展開した MTIA チップだ。TSMC 5nm プロセスで製造され、主にレコメンデーションや広告ランキングといった従来型の推論ワークロードを担う。Facebook や Instagram のフィードで「次にどの投稿を表示するか」を決めるモデルの推論は、毎秒数十億回に達する。MTIA 300 はこの膨大な推論処理を、Nvidia GPU よりも低い消費電力で高速にさばくことを目的としている。

MTIA 400 — 生成 AI への対応

MTIA 400 は MTIA 300 の設計を改良し、Llama ファミリーの大規模言語モデル(LLM)推論にも対応できるよう、メモリ帯域幅を大幅に強化した世代だ。生成 AI モデルはパラメータ数が数十億〜数千億に達するため、推論時に大量のメモリアクセスが発生する。MTIA 400 では HBM(High Bandwidth Memory)の搭載量を増やし、この課題に対処している。

MTIA 450 — 電力効率とマルチモーダル

MTIA 450 は TSMC 4nm プロセスに移行し、電力効率を約1.5倍に向上させた中間世代だ。動画や画像を含むマルチモーダル推論への対応が主な進化点で、Instagram Reels の動画レコメンデーションや、Meta AI のマルチモーダル応答を効率的に処理する。チップレット技術の採用により、柔軟な構成変更も可能になった。

MTIA 500 — フラッグシップ

MTIA 500 は TSMC 3nm プロセスで製造される次世代フラッグシップだ。最大の特徴は、推論だけでなく学習(トレーニング)ワークロードにも対応する設計に拡張された点にある。HBM3e を搭載し、Llama の次世代モデルの学習にも MTIA を部分的に活用できるようになる。2026年後半から 2027年にかけて展開が予定されている。

競合チップとの比較

Meta MTIA は、テック大手各社が開発するカスタム AI チップの中でどのような位置付けにあるのか。以下の比較表で整理する。

項目Meta MTIA 500Google TPU v6e (Trillium)Amazon Trainium2Nvidia H100Nvidia B200
開発元MetaGoogleAmazon (Annapurna Labs)NvidiaNvidia
プロセスTSMC 3nmTSMC 5nmTSMC 5nmTSMC 4nmTSMC 4nm
主な用途推論 + 学習学習 + 推論学習 + 推論汎用AI汎用AI
メモリHBM3eHBM3HBM3eHBM3 (80GB)HBM3e (192GB)
入手性Meta社内のみGCP経由AWS経由市場で購入可市場で購入可
コスト社内原価クラウド課金クラウド課金約25,000ドル〜約30,000ドル〜
電力効率ワークロード特化で高効率学習特化で高効率コスト効率重視汎用ゆえに中程度最新世代で改善
エコシステムPyTorch 最適化JAX / TensorFlowPyTorch / TensorFlowCUDA(業界標準)CUDA(業界標準)

注目すべきは、カスタムチップはいずれも市場で販売されない点だ。Google TPU と Amazon Trainium はクラウドサービス経由で外部にも提供されるが、Meta の MTIA は完全に社内利用に限定される。これは Meta が「クラウドプロバイダーではない」という事業構造に起因する。

テック大手のカスタムチップ開発競争

以下の図は、主要テック企業のカスタム AI チップ開発の歴史を時系列で整理したものだ。

テック大手のカスタムAIチップ開発タイムライン

この図は、Google が 2015 年の TPU v1 から約10年の歴史を持つのに対し、Meta の MTIA は 2023 年の v1 からわずか3年で4世代を投入する急速なキャッチアップを行っていることを示している。Microsoft も Maia チップで追随しており、テック大手による「Nvidia 依存からの脱却」は業界全体のトレンドとなっている。

Nvidia 依存からの脱却戦略

Meta が自社チップ開発を加速する背景には、AI インフラコストの爆発的増大がある。

Mark Zuckerberg CEO は 2026年の AI インフラ投資額として**600億ドル以上(約9兆円)**を計画しており、その大部分が Nvidia GPU の調達費用だ。仮に MTIA で推論ワークロードの50%を置き換えられれば、年間数十億ドル単位のコスト削減が見込める。

ただし、Meta は Nvidia との関係を完全に断ち切る意図はない。現時点で 学習(トレーニング)ワークロードの大部分は依然として Nvidia GPU に依存しており、CUDA エコシステムの成熟度を考えると、この依存が短期間で解消されることは考えにくい。Meta の戦略は「推論は自社チップ、学習は Nvidia GPU」という棲み分けを段階的に進め、将来的に MTIA 500 以降で学習領域にも進出するという長期的なアプローチだ。

この戦略は Google や Amazon のアプローチと類似している。Google は TPU で学習の多くを自社チップに移行済みだが、外部向けクラウドサービスでは Nvidia GPU も併用している。AWS も Trainium2 を大規模に展開しつつ、Nvidia GPU インスタンスの提供は継続している。

日本視点 — 半導体産業への示唆

Meta の MTIA 戦略は、日本の半導体産業にとっていくつかの重要な示唆を含んでいる。

Rapidus との関連

日本政府が支援する Rapidus は、2nm プロセスの量産を目指して北海道千歳に工場を建設中だ。MTIA のようなカスタム AI チップの需要が世界的に拡大すれば、TSMC 以外のファウンドリにも受注機会が生まれる可能性がある。ただし、Rapidus が Meta クラスの顧客を獲得するには、歩留まり率と量産能力で TSMC に匹敵する実績を示す必要がある。

日本企業の AI チップ戦略

ソフトバンクグループが出資する Arm ベースの AI チップや、Preferred Networks(PFN)が開発する MN-Core シリーズなど、日本発のカスタム AI チップの動きもある。Meta の事例は「自社ワークロードに最適化した専用チップ」の有効性を証明するものであり、日本の大手テック企業(LINE ヤフー、楽天など)が同様のアプローチを検討する契機になり得る。

TSMC 依存リスク

一方で、Meta を含むすべてのカスタムチップが TSMC に製造を依存している現状は、地政学的リスクを浮き彫りにしている。台湾有事のシナリオにおいて、世界の AI インフラが一斉に停止するリスクは、日本を含む各国の安全保障上の課題だ。

AI チップ開発を支える開発環境

カスタム AI チップの開発には、チップ設計だけでなくソフトウェアスタック全体の最適化が不可欠だ。Meta は PyTorch を中核とする AI フレームワークを自社開発しており、MTIA のコンパイラやランタイムもすべて社内で構築している。

こうした大規模なソフトウェア開発においては、Docker のようなコンテナ技術が開発環境の統一に欠かせない。チップごとに異なるコンパイラやライブラリのバージョンを管理し、再現性のあるビルド環境を提供するためだ。また、学習ワークロードのクラウド実行には AWS などのクラウドプラットフォームが活用されるケースも多い。

まとめ — MTIA が意味するもの

Meta の MTIA 4世代一挙発表は、「AI チップの内製化」がもはやテック大手にとって選択肢ではなく必須戦略になったことを示している。以下に、この動向を踏まえた具体的なアクションステップを示す。

  1. 半導体・AI 業界に関心がある方: MTIA と TPU・Trainium の技術仕様を比較し、カスタムチップと汎用 GPU の棲み分けがどう進むかをウォッチする。Meta の公式ブログ(ai.meta.com)は一次情報として最も信頼性が高い

  2. エンジニア・開発者: PyTorch エコシステムの動向に注目する。MTIA 向けの最適化が進む中で、PyTorch のコンパイラ(torch.compile)やカスタムオペレータの仕組みを理解しておくと、将来のマルチハードウェア対応で役立つ

  3. 投資家・ビジネスパーソン: Nvidia の長期的な市場シェアへの影響を見極める。短期的には学習向け GPU の需要は堅調だが、推論市場でのカスタムチップの台頭が Nvidia の成長率に影響する可能性がある

  4. 日本の半導体関係者: Rapidus や国内ファウンドリが AI チップの受託製造市場に参入するチャンスを検討する。カスタムチップ需要の増加は、TSMC 以外のファウンドリにとって追い風となり得る

  5. クラウドユーザー: AWS の Trainium インスタンスなど、カスタムチップベースのクラウドサービスのコスト効率を検証する。Nvidia GPU インスタンスと比較して30〜50%のコスト削減が報告されているケースもある

この記事をシェア