AI(更新: 2026/3/2016分で読める

中国Zhipu AIのGLM-5がMITライセンスで公開——フロンティア性能を$1/1Mトークンで提供

中国のAI企業Zhipu AI(智譜AI)が、2026年3月に大規模言語モデルGLM-5をリリースした。最大の注目点は、フロンティアモデル級の性能を持ちながらMITライセンスで完全公開されたことだ。API利用料は入力**$1.00/1Mトークン**、出力**$3.20/1Mトークンと、GPT-4oやClaude 3.5 Sonnetの5分の1以下**の価格設定。さらにセルフホストすれば、ライセンス料は一切かからない。

オープンソースAIの価格破壊が、いよいよフロンティアモデルの領域にまで到達した。

Zhipu AI(智譜AI)とは何か

Zhipu AIは、中国の名門・清華大学のコンピュータサイエンス学部からスピンアウトしたAI企業だ。2019年の創業以来、大規模言語モデル「GLM」シリーズを開発し、中国国内ではBaiduのErnie、AlibabaのQwenと並ぶ三大LLMプロバイダーとして知られる。

項目詳細
設立2019年、北京
母体清華大学コンピュータサイエンス学部
CEO張鵬(Zhang Peng)
累計調達額約$1.5B(約2,250億円)
主要投資家Tencent、Alibaba、Hillhouse Capital、SoftBank
従業員数約1,200名(2026年時点推定)
代表プロダクトGLMシリーズ、ChatGLM、CogView

Zhipu AIの特徴は、研究と商用化のバランスの良さにある。GLMシリーズは清華大学のKEG(Knowledge Engineering Group)の研究成果をベースにしており、論文発表数では中国AI企業の中でもトップクラスだ。一方で、ChatGLMとして中国の企業向けチャットボット市場でも大きなシェアを持つ。

GLM-5の技術的特徴

GLM-5は、Zhipu AIがこれまで蓄積してきた技術の集大成と言えるモデルだ。前世代のGLM-4から大幅に性能が向上し、GPT-4oやClaude 3.5 Sonnetといったプロプライエタリなフロンティアモデルと同等の性能を示している。

主要な技術スペック

項目GLM-5GPT-4oClaude 3.5 Sonnet
パラメータ数非公開(推定200B+)非公開非公開
コンテキスト長128Kトークン128Kトークン200Kトークン
マルチモーダルテキスト + 画像テキスト + 画像 + 音声テキスト + 画像
ライセンスMIT(完全オープン)プロプライエタリプロプライエタリ
セルフホスト可能不可不可
カスタム学習可能Fine-tuning API不可
入力料金/1M$1.00$5.00$3.00
出力料金/1M$3.20$15.00$15.00

ベンチマーク性能

GLM-5は、主要ベンチマークにおいてフロンティアモデルと同等の結果を達成している。

以下の図は、GLM-5と主要フロンティアモデルのベンチマーク比較を示しています。

GLM-5の主要ベンチマーク比較。MMLU、HumanEval、MATH、GPQA、MT-BenchでGPT-4oやClaude 3.5 Sonnetと同等の性能を示すグラフ

この図が示すとおり、GLM-5はすべてのベンチマークでフロンティアモデルと遜色ない結果を出している。特にMATH(数学推論)ではGPT-4oとClaude 3.5 Sonnetを上回る数値を記録した点が注目に値する。

具体的なベンチマークスコアは以下のとおりだ。

ベンチマークGLM-5GPT-4oClaude 3.5 Sonnet
MMLU(一般知識)87.288.488.7
HumanEval(コード生成)91.390.292.0
MATH(数学推論)80.176.378.5
GPQA(大学院レベルQA)73.472.174.8
MT-Bench(対話品質)9.029.219.14

MITライセンスの衝撃——なぜこれが画期的なのか

オープンソースAIモデルは珍しくない。MetaのLlama 3、MistralのMixtral、AlibabaのQwenなど、多くの企業が重みを公開している。しかし、GLM-5のMITライセンス公開がこれほど注目される理由は3つある。

1. 真にフロンティア級の性能がオープンに

これまでのオープンソースモデルは、プロプライエタリモデルに対して1〜2世代の性能差があった。Llama 3.1 405BはGPT-4に迫ったが、GPT-4oやClaude 3.5 Sonnetには及ばなかった。GLM-5は、この「オープンソースの性能ギャップ」を初めて実質的に解消したモデルだ。

2. MITライセンスは制限がほぼゼロ

MetaのLlamaライセンスは「月間アクティブユーザー7億人以上のサービスは別途契約が必要」という条項がある。MistralやQwenも独自ライセンスで微妙な制約がある。対してMITライセンスは以下の特徴を持つ。

ライセンス商用利用改変・再配布大規模利用制限代表モデル
MIT無制限無制限なしGLM-5
Llama License可能可能7億MAU超は要契約Llama 3.1
Apache 2.0可能可能なしMixtral
Qwen License可能条件付き1億MAU超は要契約Qwen 2.5

MITライセンスなら、スタートアップがGLM-5をベースに商用サービスを立ち上げても、大企業が社内システムに組み込んでも、一切のライセンス交渉が不要だ。

3. セルフホスト+カスタムトレーニングの完全サポート

GLM-5は重みだけでなく、ファインチューニング用のスクリプトやドキュメントも公開している。vLLMやTGI(Text Generation Inference)を使ったセルフホストのガイドも整備されており、自社GPU環境での運用が想定されている。

API料金の破壊力——$1.00/1Mトークンの意味

GLM-5のAPI料金設定は、AI業界の価格構造を根本から揺さぶる。

以下の図は、主要AIモデルのAPI料金比較とGLM-5の利用方法を示しています。

GLM-5のAPI料金比較図。入力・出力トークンの料金をGPT-4o、Claude 3.5 Sonnet、Gemini 1.5 Proと比較し、GLM-5が79-80%安いことを視覚的に表示

この図が示すとおり、GLM-5のAPI料金はフロンティアモデルの中で圧倒的に安い。しかも、セルフホストを選べばGPU代以外のコストはゼロだ。

コスト試算:月間1,000万トークン処理の場合

企業が月間1,000万トークン(入力700万 + 出力300万)を処理する場合のコストを試算してみよう。

モデル入力コスト出力コスト月間合計年間合計
GPT-4o$35.00$45.00$80.00$960
Claude 3.5 Sonnet$21.00$45.00$66.00$792
Gemini 1.5 Pro$24.50$31.50$56.00$672
GLM-5 API$7.00$9.60$16.60$199
GLM-5 セルフホストGPU代のみGPU代のみGPU代のみGPU代のみ

月間処理量が増えれば増えるほど、コスト差は拡大する。大規模なAIアプリケーションを運用する企業にとって、GLM-5は無視できない選択肢だ。

中国AI企業のグローバル戦略

GLM-5のMITライセンス公開は、Zhipu AIの単独の判断ではなく、中国AI業界全体のグローバル戦略の一環として理解する必要がある。

オープンソースで市場シェアを取る

2024年以降、中国のAI企業は積極的にオープンソース戦略を展開している。AlibabaのQwen、DeepSeekのDeepSeek-V3、そしてZhipu AIのGLM-5。いずれも「プロプライエタリモデルに匹敵する性能を、オープンソースで無料公開する」というアプローチだ。

背景にあるのは、APIエコシステムの構築だ。モデル自体は無料でも、以下で収益を上げるビジネスモデルを想定している。

  1. API利用料: セルフホストが面倒な中小企業からの収益
  2. エンタープライズサポート: SLA保証、カスタムデプロイメント支援
  3. クラウドパートナーシップ: AWS、Azure、GCPでのホスティング契約
  4. データフライホイール: API利用データからの改善サイクル

米中AI競争の新局面

GLM-5の登場は、米中AI競争の構図も変えつつある。これまで「中国のAIモデルは英語性能で劣る」という認識があったが、GLM-5のベンチマーク結果はその常識を覆している。特にMATHやHumanEvalでのスコアは、英語圏のタスクでもフロンティア級であることを証明した。

米国政府が中国へのGPUチップ輸出規制を強化する一方で、中国企業はソフトウェア層(モデルのオープンソース化)で世界のデベロッパーを取り込む戦略を進めている。GLM-5のMITライセンス公開は、この戦略の象徴的な一手だ。

日本での活用可能性

GLM-5は日本のテック企業にとっても大きなインパクトを持つ。

エンタープライズでの導入メリット

  1. コスト削減: GPT-4oやClaudeと同等の性能を、5分の1以下のコストで利用可能
  2. データ主権: セルフホストにより、機密データを社外に送信せずにAI処理が可能
  3. カスタマイズ: MITライセンスのため、日本語特化のファインチューニングに制限なし
  4. ベンダーロック回避: OpenAIやAnthropicへの依存を減らすマルチベンダー戦略の一環として

懸念点と注意事項

一方で、中国企業のAIモデルを業務に採用する際には以下の点に留意が必要だ。

懸念事項詳細対策
データプライバシーAPIの場合、データが中国サーバーを経由する可能性セルフホストで対応
安全保障政府系プロジェクトでの利用リスク用途に応じたリスク評価
継続性米中関係悪化時のサポート停止リスクMITライセンスのためコードは手元に残る
日本語性能英語・中国語に比べ日本語はチューニング不足の可能性ファインチューニングで対応可能

セルフホストを選べばデータプライバシーの問題は解消されるが、運用にはNVIDIA A100/H100クラスのGPUが複数枚必要になる。中小企業にとっては、日本のクラウドベンダー(さくらインターネット、GMOクラウドなど)がGLM-5のマネージドサービスを提供するかどうかが鍵になるだろう。

競合比較:オープンソースLLM市場の現在地

GLM-5の登場で、オープンソースLLMの勢力図は以下のようになった。

モデル開発元ライセンスフロンティア級セルフホストAPI料金(入力/出力)
GLM-5Zhipu AIMITはい可能$1.00/$3.20
Llama 3.1 405BMetaLlama Licenseほぼ可能非公式のみ
DeepSeek-V3DeepSeekDeepSeek Licenseほぼ可能$0.27/$1.10
Qwen 2.5 72BAlibabaQwen Licenseいいえ可能$0.70/$2.80
Mixtral 8x22BMistralApache 2.0いいえ可能$2.00/$6.00
Gemma 2 27BGoogleGemma Licenseいいえ可能無料(制限付き)

DeepSeek-V3はGLM-5よりさらに安い料金設定だが、ライセンスの透明性とベンチマーク性能の総合力ではGLM-5に軍配が上がる。MITライセンスという「最も自由なライセンス」でフロンティア級の性能を提供しているのは、現時点でGLM-5のみだ。

開発者向け:すぐに試す方法

GLM-5を今すぐ試したい開発者のために、主な利用方法を整理する。

1. API経由(最も簡単)

Zhipu AIのAPI経由が最も手軽だ。OpenAI互換のAPIフォーマットを採用しているため、既存のコードをほぼそのまま流用できる。

2. セルフホスト(vLLM)

vLLMを使えば、自前のGPUサーバーでGLM-5をホストできる。推奨環境はNVIDIA A100 80GB x 4以上。H100なら2枚でも動作する。

3. HuggingFace

HuggingFace Hub上で重みが公開されており、Transformersライブラリから直接ロードできる。

まとめ:オープンソースAIの新時代

GLM-5のMITライセンス公開は、AI業界における重要なマイルストーンだ。フロンティア級の性能を持つモデルが、完全にオープンかつ商用利用無制限で公開されたのは初めてのことと言える。

今後のアクションステップとしては以下を推奨する。

  1. まずAPIで試す: Zhipu AIのAPIに登録し、既存のGPT-4oやClaudeのワークロードをGLM-5に切り替えてベンチマークを比較する
  2. コスト試算: 現在のAI関連支出を洗い出し、GLM-5に切り替えた場合の削減額を算出する
  3. セルフホスト検証: 機密データを扱うユースケースがある場合、社内GPUまたはクラウドGPUでのセルフホスト環境を構築してみる
  4. 日本語性能テスト: 自社の実際のタスク(カスタマーサポート、ドキュメント生成、コード補助など)で日本語性能を検証する

AIモデルの選択肢は確実に広がっている。OpenAIやAnthropicのClaude Proのようなプロプライエタリモデルが持つ強み(最新の安全性研究、手厚いサポート、日本語最適化)を理解した上で、用途に応じてGLM-5のようなオープンソースモデルを組み合わせる「ハイブリッド戦略」が、2026年のAI活用における最適解だろう。

この記事をシェア