中国Zhipu AIのGLM-5がMITライセンスで公開——フロンティア性能を$1/1Mトークンで提供
中国のAI企業Zhipu AI(智譜AI)が、2026年3月に大規模言語モデルGLM-5をリリースした。最大の注目点は、フロンティアモデル級の性能を持ちながらMITライセンスで完全公開されたことだ。API利用料は入力**$1.00/1Mトークン**、出力**$3.20/1Mトークンと、GPT-4oやClaude 3.5 Sonnetの5分の1以下**の価格設定。さらにセルフホストすれば、ライセンス料は一切かからない。
オープンソースAIの価格破壊が、いよいよフロンティアモデルの領域にまで到達した。
Zhipu AI(智譜AI)とは何か
Zhipu AIは、中国の名門・清華大学のコンピュータサイエンス学部からスピンアウトしたAI企業だ。2019年の創業以来、大規模言語モデル「GLM」シリーズを開発し、中国国内ではBaiduのErnie、AlibabaのQwenと並ぶ三大LLMプロバイダーとして知られる。
| 項目 | 詳細 |
|---|---|
| 設立 | 2019年、北京 |
| 母体 | 清華大学コンピュータサイエンス学部 |
| CEO | 張鵬(Zhang Peng) |
| 累計調達額 | 約$1.5B(約2,250億円) |
| 主要投資家 | Tencent、Alibaba、Hillhouse Capital、SoftBank |
| 従業員数 | 約1,200名(2026年時点推定) |
| 代表プロダクト | GLMシリーズ、ChatGLM、CogView |
Zhipu AIの特徴は、研究と商用化のバランスの良さにある。GLMシリーズは清華大学のKEG(Knowledge Engineering Group)の研究成果をベースにしており、論文発表数では中国AI企業の中でもトップクラスだ。一方で、ChatGLMとして中国の企業向けチャットボット市場でも大きなシェアを持つ。
GLM-5の技術的特徴
GLM-5は、Zhipu AIがこれまで蓄積してきた技術の集大成と言えるモデルだ。前世代のGLM-4から大幅に性能が向上し、GPT-4oやClaude 3.5 Sonnetといったプロプライエタリなフロンティアモデルと同等の性能を示している。
主要な技術スペック
| 項目 | GLM-5 | GPT-4o | Claude 3.5 Sonnet |
|---|---|---|---|
| パラメータ数 | 非公開(推定200B+) | 非公開 | 非公開 |
| コンテキスト長 | 128Kトークン | 128Kトークン | 200Kトークン |
| マルチモーダル | テキスト + 画像 | テキスト + 画像 + 音声 | テキスト + 画像 |
| ライセンス | MIT(完全オープン) | プロプライエタリ | プロプライエタリ |
| セルフホスト | 可能 | 不可 | 不可 |
| カスタム学習 | 可能 | Fine-tuning API | 不可 |
| 入力料金/1M | $1.00 | $5.00 | $3.00 |
| 出力料金/1M | $3.20 | $15.00 | $15.00 |
ベンチマーク性能
GLM-5は、主要ベンチマークにおいてフロンティアモデルと同等の結果を達成している。
以下の図は、GLM-5と主要フロンティアモデルのベンチマーク比較を示しています。
この図が示すとおり、GLM-5はすべてのベンチマークでフロンティアモデルと遜色ない結果を出している。特にMATH(数学推論)ではGPT-4oとClaude 3.5 Sonnetを上回る数値を記録した点が注目に値する。
具体的なベンチマークスコアは以下のとおりだ。
| ベンチマーク | GLM-5 | GPT-4o | Claude 3.5 Sonnet |
|---|---|---|---|
| MMLU(一般知識) | 87.2 | 88.4 | 88.7 |
| HumanEval(コード生成) | 91.3 | 90.2 | 92.0 |
| MATH(数学推論) | 80.1 | 76.3 | 78.5 |
| GPQA(大学院レベルQA) | 73.4 | 72.1 | 74.8 |
| MT-Bench(対話品質) | 9.02 | 9.21 | 9.14 |
MITライセンスの衝撃——なぜこれが画期的なのか
オープンソースAIモデルは珍しくない。MetaのLlama 3、MistralのMixtral、AlibabaのQwenなど、多くの企業が重みを公開している。しかし、GLM-5のMITライセンス公開がこれほど注目される理由は3つある。
1. 真にフロンティア級の性能がオープンに
これまでのオープンソースモデルは、プロプライエタリモデルに対して1〜2世代の性能差があった。Llama 3.1 405BはGPT-4に迫ったが、GPT-4oやClaude 3.5 Sonnetには及ばなかった。GLM-5は、この「オープンソースの性能ギャップ」を初めて実質的に解消したモデルだ。
2. MITライセンスは制限がほぼゼロ
MetaのLlamaライセンスは「月間アクティブユーザー7億人以上のサービスは別途契約が必要」という条項がある。MistralやQwenも独自ライセンスで微妙な制約がある。対してMITライセンスは以下の特徴を持つ。
| ライセンス | 商用利用 | 改変・再配布 | 大規模利用制限 | 代表モデル |
|---|---|---|---|---|
| MIT | 無制限 | 無制限 | なし | GLM-5 |
| Llama License | 可能 | 可能 | 7億MAU超は要契約 | Llama 3.1 |
| Apache 2.0 | 可能 | 可能 | なし | Mixtral |
| Qwen License | 可能 | 条件付き | 1億MAU超は要契約 | Qwen 2.5 |
MITライセンスなら、スタートアップがGLM-5をベースに商用サービスを立ち上げても、大企業が社内システムに組み込んでも、一切のライセンス交渉が不要だ。
3. セルフホスト+カスタムトレーニングの完全サポート
GLM-5は重みだけでなく、ファインチューニング用のスクリプトやドキュメントも公開している。vLLMやTGI(Text Generation Inference)を使ったセルフホストのガイドも整備されており、自社GPU環境での運用が想定されている。
API料金の破壊力——$1.00/1Mトークンの意味
GLM-5のAPI料金設定は、AI業界の価格構造を根本から揺さぶる。
以下の図は、主要AIモデルのAPI料金比較とGLM-5の利用方法を示しています。
この図が示すとおり、GLM-5のAPI料金はフロンティアモデルの中で圧倒的に安い。しかも、セルフホストを選べばGPU代以外のコストはゼロだ。
コスト試算:月間1,000万トークン処理の場合
企業が月間1,000万トークン(入力700万 + 出力300万)を処理する場合のコストを試算してみよう。
| モデル | 入力コスト | 出力コスト | 月間合計 | 年間合計 |
|---|---|---|---|---|
| GPT-4o | $35.00 | $45.00 | $80.00 | $960 |
| Claude 3.5 Sonnet | $21.00 | $45.00 | $66.00 | $792 |
| Gemini 1.5 Pro | $24.50 | $31.50 | $56.00 | $672 |
| GLM-5 API | $7.00 | $9.60 | $16.60 | $199 |
| GLM-5 セルフホスト | GPU代のみ | GPU代のみ | GPU代のみ | GPU代のみ |
月間処理量が増えれば増えるほど、コスト差は拡大する。大規模なAIアプリケーションを運用する企業にとって、GLM-5は無視できない選択肢だ。
中国AI企業のグローバル戦略
GLM-5のMITライセンス公開は、Zhipu AIの単独の判断ではなく、中国AI業界全体のグローバル戦略の一環として理解する必要がある。
オープンソースで市場シェアを取る
2024年以降、中国のAI企業は積極的にオープンソース戦略を展開している。AlibabaのQwen、DeepSeekのDeepSeek-V3、そしてZhipu AIのGLM-5。いずれも「プロプライエタリモデルに匹敵する性能を、オープンソースで無料公開する」というアプローチだ。
背景にあるのは、APIエコシステムの構築だ。モデル自体は無料でも、以下で収益を上げるビジネスモデルを想定している。
- API利用料: セルフホストが面倒な中小企業からの収益
- エンタープライズサポート: SLA保証、カスタムデプロイメント支援
- クラウドパートナーシップ: AWS、Azure、GCPでのホスティング契約
- データフライホイール: API利用データからの改善サイクル
米中AI競争の新局面
GLM-5の登場は、米中AI競争の構図も変えつつある。これまで「中国のAIモデルは英語性能で劣る」という認識があったが、GLM-5のベンチマーク結果はその常識を覆している。特にMATHやHumanEvalでのスコアは、英語圏のタスクでもフロンティア級であることを証明した。
米国政府が中国へのGPUチップ輸出規制を強化する一方で、中国企業はソフトウェア層(モデルのオープンソース化)で世界のデベロッパーを取り込む戦略を進めている。GLM-5のMITライセンス公開は、この戦略の象徴的な一手だ。
日本での活用可能性
GLM-5は日本のテック企業にとっても大きなインパクトを持つ。
エンタープライズでの導入メリット
- コスト削減: GPT-4oやClaudeと同等の性能を、5分の1以下のコストで利用可能
- データ主権: セルフホストにより、機密データを社外に送信せずにAI処理が可能
- カスタマイズ: MITライセンスのため、日本語特化のファインチューニングに制限なし
- ベンダーロック回避: OpenAIやAnthropicへの依存を減らすマルチベンダー戦略の一環として
懸念点と注意事項
一方で、中国企業のAIモデルを業務に採用する際には以下の点に留意が必要だ。
| 懸念事項 | 詳細 | 対策 |
|---|---|---|
| データプライバシー | APIの場合、データが中国サーバーを経由する可能性 | セルフホストで対応 |
| 安全保障 | 政府系プロジェクトでの利用リスク | 用途に応じたリスク評価 |
| 継続性 | 米中関係悪化時のサポート停止リスク | MITライセンスのためコードは手元に残る |
| 日本語性能 | 英語・中国語に比べ日本語はチューニング不足の可能性 | ファインチューニングで対応可能 |
セルフホストを選べばデータプライバシーの問題は解消されるが、運用にはNVIDIA A100/H100クラスのGPUが複数枚必要になる。中小企業にとっては、日本のクラウドベンダー(さくらインターネット、GMOクラウドなど)がGLM-5のマネージドサービスを提供するかどうかが鍵になるだろう。
競合比較:オープンソースLLM市場の現在地
GLM-5の登場で、オープンソースLLMの勢力図は以下のようになった。
| モデル | 開発元 | ライセンス | フロンティア級 | セルフホスト | API料金(入力/出力) |
|---|---|---|---|---|---|
| GLM-5 | Zhipu AI | MIT | はい | 可能 | $1.00/$3.20 |
| Llama 3.1 405B | Meta | Llama License | ほぼ | 可能 | 非公式のみ |
| DeepSeek-V3 | DeepSeek | DeepSeek License | ほぼ | 可能 | $0.27/$1.10 |
| Qwen 2.5 72B | Alibaba | Qwen License | いいえ | 可能 | $0.70/$2.80 |
| Mixtral 8x22B | Mistral | Apache 2.0 | いいえ | 可能 | $2.00/$6.00 |
| Gemma 2 27B | Gemma License | いいえ | 可能 | 無料(制限付き) |
DeepSeek-V3はGLM-5よりさらに安い料金設定だが、ライセンスの透明性とベンチマーク性能の総合力ではGLM-5に軍配が上がる。MITライセンスという「最も自由なライセンス」でフロンティア級の性能を提供しているのは、現時点でGLM-5のみだ。
開発者向け:すぐに試す方法
GLM-5を今すぐ試したい開発者のために、主な利用方法を整理する。
1. API経由(最も簡単)
Zhipu AIのAPI経由が最も手軽だ。OpenAI互換のAPIフォーマットを採用しているため、既存のコードをほぼそのまま流用できる。
2. セルフホスト(vLLM)
vLLMを使えば、自前のGPUサーバーでGLM-5をホストできる。推奨環境はNVIDIA A100 80GB x 4以上。H100なら2枚でも動作する。
3. HuggingFace
HuggingFace Hub上で重みが公開されており、Transformersライブラリから直接ロードできる。
まとめ:オープンソースAIの新時代
GLM-5のMITライセンス公開は、AI業界における重要なマイルストーンだ。フロンティア級の性能を持つモデルが、完全にオープンかつ商用利用無制限で公開されたのは初めてのことと言える。
今後のアクションステップとしては以下を推奨する。
- まずAPIで試す: Zhipu AIのAPIに登録し、既存のGPT-4oやClaudeのワークロードをGLM-5に切り替えてベンチマークを比較する
- コスト試算: 現在のAI関連支出を洗い出し、GLM-5に切り替えた場合の削減額を算出する
- セルフホスト検証: 機密データを扱うユースケースがある場合、社内GPUまたはクラウドGPUでのセルフホスト環境を構築してみる
- 日本語性能テスト: 自社の実際のタスク(カスタマーサポート、ドキュメント生成、コード補助など)で日本語性能を検証する
AIモデルの選択肢は確実に広がっている。OpenAIやAnthropicのClaude Proのようなプロプライエタリモデルが持つ強み(最新の安全性研究、手厚いサポート、日本語最適化)を理解した上で、用途に応じてGLM-5のようなオープンソースモデルを組み合わせる「ハイブリッド戦略」が、2026年のAI活用における最適解だろう。