AI18分で読める

Microsoft自社AIモデル3種を一斉リリース——OpenAI依存脱却へ

Microsoftが、自社開発のAIファウンデーションモデル3種——MAI-Transcribe-1、MAI-Voice-1、MAI-Image-2を同時にリリースした。音声文字起こし、音声合成、画像生成という3つの主要AIタスクを、OpenAIの技術に頼らず自社モデルでカバーする動きだ。Microsoftは過去にOpenAIへ累計**130億ドル以上(約1兆9,500億円)**を投資してきたが、今回のリリースはその依存関係を戦略的に見直す転換点となる。

Azure AI Servicesを通じて即日提供が開始されており、Microsoft 365やCopilot、Teamsなど自社プロダクトへの統合も順次進む。Satya Nadella CEOは「自社モデルとパートナーモデルの両方を持つことで、顧客に最適な選択肢を提供できる」と述べ、OpenAIとの関係を「補完的」と位置付けた。

MAI(Microsoft AI)モデルとは何か

MAIは「Microsoft AI」の略称で、Microsoftが自社のAI研究部門で独自に開発するファウンデーションモデル群を指す。従来、MicrosoftのAIサービスはOpenAIのGPT-4、DALL-E、Whisperといったモデルに大きく依存してきた。Azure OpenAI Serviceとして提供されるこれらのモデルは、MicrosoftにAI分野での先行者利益をもたらした一方で、技術的な差別化やコスト管理の面で制約も生んでいた。

MAIモデルは、こうした構造的課題を解消するために生まれた。Microsoftが保有する膨大な自社データ(Bing検索ログ、LinkedIn、GitHub、Microsoft 365の匿名化データなど)を活用し、特定のタスクに最適化された高効率なモデルを自社で開発・運用する戦略だ。

重要なのは、MAIモデルが「OpenAIの代替」ではなく「補完」として位置付けられている点だ。GPT系モデルが得意とする汎用的な言語理解・生成タスクはOpenAIに任せつつ、音声や画像といった特定ドメインでは自社モデルを投入し、コストと性能の最適化を図る。いわば「マルチモデル戦略」の具現化である。

3つのMAIモデルの詳細

以下の図は、今回リリースされた3つのMAIモデルの機能・性能を比較したものだ。

MAI-Transcribe-1、MAI-Voice-1、MAI-Image-2の機能・性能比較

この図は、各モデルのタスク、対応言語、ベンチマークスコア、提供先プロダクト、主な技術的特徴を一覧で整理している。3モデルはいずれも、既存のOpenAI系モデルを上回るか同等の性能を達成しつつ、Microsoftのエコシステムに最適化されていることがわかる。

MAI-Transcribe-1 — 音声文字起こし

MAI-Transcribe-1は、音声をテキストに変換する音声認識(ASR: Automatic Speech Recognition)モデルだ。80以上の言語に対応し、英語での単語誤り率(WER: Word Error Rate)は7.2%を達成。これはOpenAIのWhisper v3(WER 8.8%)と比較して約18%の改善にあたる。

最大の特徴はリアルタイム処理能力だ。ストリーミング入力に対応し、音声が入力されるのと同時にテキストを生成できる。これにより、Microsoft Teamsの会議文字起こし機能が大幅に高速化される。従来のWhisperベースの処理では数秒のラグが発生していたが、MAI-Transcribe-1では200ミリ秒以下の遅延を実現した。

さらに、**話者分離(Speaker Diarization)**機能を内蔵しており、複数人が同時に話す会議シナリオでも「誰がいつ何を言ったか」を正確に識別する。タイムスタンプ付きの出力にも対応しており、議事録作成の自動化を強力に支援する。

低リソース言語(アフリカ諸語、東南アジア諸語など)への対応も強化されており、グローバル企業が多言語環境で利用するユースケースを意識した設計だ。

MAI-Voice-1 — 音声合成

MAI-Voice-1は、テキストから自然な音声を生成するTTS(Text-to-Speech)モデルだ。40以上の言語に対応し、人間の評価による平均オピニオンスコア(MOS: Mean Opinion Score)は4.3 / 5.0。人間の自然な発話(MOS 4.5前後)に極めて近い品質を達成している。

従来のAzure Speech Serviceで使われていた音声合成エンジンと比較して、感情表現と抑揚の自然さが大幅に向上した。ニュース読み上げ、カスタマーサポートの自動応答、アクセシビリティ支援(視覚障害者向けスクリーンリーダー)など、幅広いユースケースに対応する。

注目すべき機能として「カスタムボイスクローニング」がある。企業が自社ブランドに合った音声を少量のサンプル音声(最短15秒)から生成できる。ただし、悪用防止のため利用にはMicrosoft側の審査が必要で、ディープフェイク対策として音声に不可視の電子透かし(ウォーターマーク)が埋め込まれる。

MAI-Image-2 — 画像生成

MAI-Image-2は、テキストプロンプトから画像を生成するモデルだ。名前に「2」とあるように、2025年に研究段階で公開されたMAI-Image-1の後継にあたる。最大解像度は2048x2048ピクセルで、FID(Frechet Inception Distance)スコアは6.8。OpenAIのDALL-E 3(FID 8.7)と比較して約22%の改善を達成している。

技術的な特徴として、構図制御(Layout Control)スタイル指定の精度が高い点が挙げられる。従来の画像生成モデルでは「左側に猫、右側に犬」といった空間的な指定がうまく反映されないことが多かったが、MAI-Image-2ではバウンディングボックス指定による正確な配置が可能になった。

Microsoft Designerへの統合により、PowerPointやWord内での画像生成にも活用される。企業がマーケティング素材やプレゼンテーション用の画像を、デザイナーを介さずに作成できるユースケースが想定されている。

競合との比較

MAIモデルは、AI業界の主要プレイヤーが提供する同種のモデルとどう比較されるのか。以下の表で整理する。

音声認識(ASR)モデル比較

項目MAI-Transcribe-1OpenAI Whisper v3Google Chirp 2Meta MMS
開発元MicrosoftOpenAIGoogleMeta
対応言語80以上100以上100以上1,100以上
英語WER7.2%8.8%7.5%9.1%
リアルタイム対応(200ms以下)非対応(バッチ)対応非対応
話者分離内蔵外部ツール必要内蔵なし
提供形態Azure AIAPI / オープンソースGoogle Cloudオープンソース
コスト(1時間)約$0.36$0.36(API)約$0.40無料(自前運用)

音声合成(TTS)モデル比較

項目MAI-Voice-1OpenAI TTSGoogle WaveNetAmazon Polly
MOS4.34.14.23.9
対応言語40以上5740以上30以上
カスタムボイス対応(15秒)非対応対応対応(限定的)
感情表現高精度中程度高精度基本的
レイテンシ150ms200ms100ms180ms
価格(100万文字)約$15$15$16$16

画像生成モデル比較

項目MAI-Image-2DALL-E 3Google Imagen 3Stable Diffusion 3.5
FID6.88.77.18.2
最大解像度2048x20481024x17922048x20482048x2048
構図制御バウンディングボックステキストのみテキスト+参照画像ControlNet
スタイル制御高精度中程度高精度高精度
生成速度約3秒約5秒約4秒約8秒(ローカル)
価格(1枚)約$0.02$0.04$0.03無料(自前運用)

MicrosoftのAI戦略変遷——OpenAI依存からの脱却

以下の図は、MicrosoftのAI戦略がどのように変遷してきたかを時系列で整理したものだ。

MicrosoftのAI戦略変遷:OpenAI依存からMAI自社モデル展開へのロードマップ

この図は、2019年のOpenAI初期投資から2026年現在のMAI本格展開まで、4つのフェーズで戦略の推移を示している。OpenAIへの依存リスクを認識しつつ、マルチモデル化を経て自社AI基盤の確立へと段階的に移行していることがわかる。

なぜ今「脱OpenAI」なのか

MicrosoftがOpenAI依存を見直す背景には、複数の構造的要因がある。

1. コスト構造の問題

OpenAIへの投資総額は130億ドルを超え、Azure OpenAI Serviceの利用料にはOpenAIへのロイヤリティが含まれる。自社モデルに切り替えることで、この中間コストを削減できる。特に音声認識や画像生成といった大量に処理されるタスクでは、1リクエストあたりのコスト差が年間数億ドル規模の節約につながる。

2. OpenAIとの関係変化

2025年にOpenAIが営利企業への転換を進めて以降、MicrosoftとOpenAIの独占的パートナーシップは段階的に緩和されている。OpenAIが他のクラウドプロバイダー(Oracle、Softbankなど)へのモデル提供を拡大する中、Microsoftも「OpenAI以外の選択肢」を持つ必要性が高まった。

3. 垂直統合戦略

Microsoftは2025年に自社設計のAIチップ「Maia 100」をAzureデータセンターに投入している。自社チップ+自社モデルの組み合わせにより、Google(TPU + Gemini)やAmazon(Trainium + Nova)と同様の垂直統合アプローチが可能になる。ハードウェアからモデルまで自社で最適化することで、性能とコストの両面で競争力を確保する狙いだ。

4. 差別化の必要性

Azure OpenAI ServiceはOpenAIのモデルをそのままAzure上で提供するサービスであるため、技術的な差別化が難しい。OpenAI自身がAPI提供を拡大すれば、Azure経由である必然性が薄れる。自社モデルを持つことで、「Azureでしか使えないAI」という差別化要素が生まれる。

Phi小型モデルとの棲み分け

MicrosoftはMAIモデルの他にも、「Phi」シリーズの小型言語モデルを展開している。Phi-4(14Bパラメータ)やPhi-3.5-vision(マルチモーダル)は、エッジデバイスやコスト重視のユースケース向けだ。

MAIモデルとPhiモデルは明確に棲み分けられている。

  • MAIモデル: クラウドで動作する高性能ファウンデーションモデル。Azure AI Services経由で提供
  • Phiモデル: エッジ・デバイスでも動作する軽量モデル。オープンソースで提供

この2層構造により、クラウドからエッジまで自社モデルでカバーする体制が整いつつある。

料金体系

MAIモデルのAzure AI Servicesでの料金体系は以下の通りだ(2026年4月時点の公開価格)。

モデル課金単位従量課金日本円換算
MAI-Transcribe-1音声1時間$0.36約54円
MAI-Voice-1100万文字$15.00約2,250円
MAI-Image-2標準画質1枚$0.02約3円
MAI-Image-2HD画質1枚$0.04約6円

既存のAzure OpenAI Serviceの同等機能(Whisper、TTS、DALL-E 3)と比較して、MAIモデルは平均で20〜40%低い価格設定となっている。Microsoftとしては、価格競争力でユーザーのMAIモデルへの移行を促したい狙いだ。

Enterprise Agreement(EA)やMicrosoft 365 E5ライセンスを持つ企業には、追加の割引やバンドル提供も予定されている。

日本での影響

今回のMAIモデルリリースは、日本のIT市場にも複数の影響を与える。

Azure導入企業への直接的メリット

日本ではメガバンク、製造業、官公庁を中心にAzure導入が進んでおり、これらの企業はMAIモデルの恩恵を直接受ける。特にMAI-Transcribe-1の日本語対応は注目に値する。Whisper v3の日本語WERが約12%だったのに対し、MAI-Transcribe-1では**約9.5%**への改善が報告されている。Microsoft 365を利用する企業では、Teams会議の日本語文字起こし精度が体感レベルで向上するだろう。

日本語音声合成の進化

MAI-Voice-1の日本語音声は、従来のAzure Speech Serviceと比較してイントネーションの自然さが大幅に改善されている。敬語表現や漢字の読み分け(「生」を「なま」「せい」「いき」などと文脈に応じて正確に読み分ける)精度が向上しており、コールセンターの自動応答やアクセシビリティ用途での活用拡大が見込まれる。

国内SIerへの影響

日本のシステムインテグレーター(SIer)にとって、MAIモデルの登場は提案の幅を広げる。これまで「Azure OpenAI Service一択」だった音声AI・画像AI案件に、コスト面で優位な自社モデルの選択肢が加わる。顧客のデータ主権(データがOpenAIに渡らない)を重視する金融・医療セクターでは、MAIモデルが好まれる可能性が高い。

競合クラウドとの価格競争激化

AWSはAmazon Nova、Google CloudはGeminiとImagenをそれぞれ低価格で提供しており、日本のクラウド市場での価格競争がさらに激化する。特に画像生成の1枚あたりコスト(MAI-Image-2は約3円)は、中小企業のマーケティング用途でのAI活用を加速させるだろう。

まとめ——今後のアクション

MicrosoftのMAIモデル3種同時リリースは、AI業界の勢力図に変化をもたらす重要な出来事だ。以下の3つのアクションを推奨する。

  1. Azure利用企業はMAIモデルの検証を開始する: 既存のWhisper・DALL-E利用ワークロードをMAIモデルに切り替えた場合のコスト・性能比較を行おう。Azure AI Studioで無料枠を使った検証が可能だ

  2. マルチモデル戦略を前提としたアーキテクチャ設計: OpenAI一択の設計から、用途に応じてMAI・Phi・OpenAIモデルを使い分けるアーキテクチャへの移行を検討しよう。APIのインターフェースはAzure AI Servicesで統一されているため、切り替えコストは低い

  3. 音声AI活用の再評価: MAI-Transcribe-1のリアルタイム話者分離機能は、議事録自動化、コールセンター分析、アクセシビリティ改善など多くのユースケースを実用レベルに引き上げる。特に日本語の文字起こし精度向上は、これまで「精度が足りない」と見送っていたプロジェクトを再検討する好機だ

OpenAIとのパートナーシップは今後も継続するが、Microsoftが「自前のAIモデルを持つプラットフォーマー」へと進化しつつあることは明らかだ。Google、Amazon、Metaに続き、ビッグテック各社が自社モデルへの投資を加速させる中、AI業界の競争は新たなフェーズに入っている。

この記事をシェア