AI13分で読める

Runway Gen-4公開——4K動画を最大2分、物理演算で次元が違う

AI動画生成スタートアップの Runway が、最新モデルGen-4を2026年3月に正式公開した。最大解像度は4K(2160p)、生成可能な尺は最大2分間。さらに物理シミュレーションエンジンを統合し、重力・衝突・流体といった物理法則に基づくリアルな動きを生成できるようになった。月額**$96(約14,400円)**の Pro プランから利用可能で、映画スタジオ Lionsgate をはじめとする大手エンタテインメント企業との提携も発表されている。

OpenAI の Sora、中国発の Kling、Pika など競合がひしめく AI 動画生成市場で、Gen-4 は「解像度」「尺」「物理的リアリズム」の3軸で一歩先を行く存在だ。本記事では、Gen-4 の技術的な仕組みから料金体系、競合比較、そして日本のクリエイターへの影響まで徹底的に解説する。

Runway とは何か

Runway は2018年にニューヨークで設立された AI スタートアップだ。共同創業者の Cristóbal Valenzuela(CEO)はチリ出身のアーティスト兼エンジニアで、「クリエイティブツールを AI で民主化する」というビジョンを掲げている。

同社はこれまでに累計**約15億ドル(約2,250億円)**の資金を調達しており、直近の評価額は約40億ドルに達する。Gen-1(2023年)で画像から動画を生成する技術を発表し、Gen-2(2023年後半)でテキストからの動画生成を実現。Gen-3 Alpha(2024年)では品質と一貫性を大幅に改善し、ハリウッドの映像制作現場でも徐々に採用が進んできた。

特筆すべきは、映画スタジオ Lionsgate(『ジョン・ウィック』シリーズ、『ハンガー・ゲーム』シリーズなどで知られる)との提携だ。Lionsgate は自社の映像ライブラリを Runway のモデル学習に提供するパートナーシップを結んでおり、Gen-4 の映像品質向上に大きく貢献している。

Gen-4 の技術的な仕組み

Gen-4 の核心技術は、大きく3つの要素で構成されている。

Diffusion Transformer アーキテクチャ

Gen-4 は**Diffusion Transformer(DiT)**と呼ばれるアーキテクチャを採用している。これは、画像生成で主流の拡散モデル(Diffusion Model)と、GPT などで使われる Transformer アーキテクチャを融合したものだ。

従来の動画生成 AI は、各フレームを独立に生成してから繋げるアプローチが多く、フレーム間の不整合(ちらつき、形状の崩れ)が課題だった。DiT は動画全体を1つのシーケンスとして処理するため、時間方向の一貫性が格段に向上している。Gen-4 ではこの DiT を大幅にスケールアップし、4K 解像度でも破綻しない高精細な映像生成を実現した。

物理シミュレーション統合

Gen-4 最大の差別化ポイントが、物理シミュレーションエンジンの統合だ。従来の動画生成 AI では、ボールが壁を突き抜ける、水が不自然に浮遊する、物体の影が動きに追従しないといった物理法則違反が頻繁に発生していた。

Gen-4 では、学習段階で物理法則に関するデータを大規模に取り込み、推論時にも物理シミュレーションの結果をガイドとして生成プロセスに反映する。これにより、重力、衝突、反射、流体力学、布のドレープなど、現実世界の物理現象に忠実な映像が生成される。Runway はこの技術を「Physics-Aware Generation」と呼んでいる。

以下の図は、Gen-4 がテキストや画像の入力からどのように動画を生成するかのパイプラインを示している。

Runway Gen-4の動画生成パイプライン。入力(テキスト・画像・動画)から意味理解、物理シミュレーション統合の生成エンジンを経て4K動画を出力する流れ

この図のとおり、入力されたテキストや画像はまず Diffusion Transformer による意味理解フェーズを経て、物理シミュレーションと統合された生成エンジンで4Kフレームが合成される。

マルチモーダル入力

Gen-4 は3種類の入力に対応している。

  1. テキスト→動画: プロンプト文を入力するだけで動画を生成
  2. 画像→動画: 静止画を入力し、それをベースにした動画を生成(カメラワークや動きの指定が可能)
  3. 動画→動画: 既存の動画を入力し、スタイル変換やエフェクト追加を実行

特に画像→動画の変換精度が高く、1枚の写真から被写体の3D構造を推定し、自然なカメラ移動やズームを伴う動画を生成できる。

競合との比較

2026年3月現在、AI 動画生成市場には複数の強力なプレイヤーが存在する。主要ツールのスペックを比較してみよう。

ツール最大解像度最大尺物理演算入力形式月額料金
Runway Gen-44K (2160p)最大2分ありテキスト/画像/動画$96〜(約14,400円)
OpenAI Sora1080p最大1分限定的テキスト/画像$20〜(約3,000円)
Kling 2.01080p最大2分なしテキスト/画像$8〜(約1,200円)
Pika 2.01080p最大30秒なしテキスト/画像$10〜(約1,500円)
Stable Video1024×576最大25秒なしテキスト/画像$20〜(約3,000円)

以下の図は、各ツールのスペックを視覚的に比較したものだ。

AI動画生成ツールのスペック比較チャート。Runway Gen-4が解像度・物理演算で優位に立つ一方、Soraは価格面、Klingは尺の長さで競争力を持つ

この比較から分かるように、Gen-4 は解像度と物理シミュレーションの面で明確に他社をリードしている。一方、料金は最も高い部類に入る。

各ツールの特徴

OpenAI Sora は ChatGPT Plus の契約に含まれるため、コスト面では最もアクセスしやすい。ただし、解像度は1080p に留まり、生成可能な尺も1分が上限だ。物理的なリアリズムについても、Gen-4 ほどの精度は実現できていない。

Kling 2.0 は中国 Kuaishou Technology が開発したモデルで、最大2分という長尺生成が可能。料金も月額 $8〜と圧倒的に安い。ただし、物理演算は非搭載で、細部の品質では Gen-4 に及ばない。

Pika 2.0 は操作の手軽さと独自のエフェクト機能(「Inflate」で2D画像を膨らませる等)に強みがある。SNS 向けの短尺動画制作に適しているが、プロ向けの長尺コンテンツには不向きだ。

料金体系

Gen-4 の料金プランは以下の3段階で構成されている(1ドル=約150円換算)。

プラン月額料金月間クレジット4K生成最大尺主な対象
Standard$36(約5,400円)2,250不可(1080pまで)30秒個人クリエイター
Pro$96(約14,400円)9,0002分プロクリエイター
Enterprise要問合せ無制限2分+カスタム映像制作会社・スタジオ

注目すべきは、4K 生成と最大2分の尺は Pro プラン以上でのみ利用可能という点だ。Standard プランでは解像度が1080p、尺が30秒に制限されるため、Gen-4 の真価を発揮するには月額 $96 の投資が必要になる。

クレジットの消費量は解像度と尺に比例する。4K・2分の動画を1本生成すると約300クレジットを消費するため、Pro プランでは月に約30本の4K長尺動画を生成できる計算だ。

Enterprise プランでは API アクセス、カスタムモデルの fine-tuning、優先レンダリング、専任のカスタマーサクセスマネージャーなどが提供される。Lionsgate のような大手スタジオはこのプランを利用していると見られる。

日本のクリエイターと映像制作業界への影響

個人クリエイターの可能性

Gen-4 の登場は、日本の個人クリエイターにとって大きなチャンスだ。これまで動画制作には撮影機材、ロケーション、演者の確保、編集ソフトのスキルなど多くのリソースが必要だった。Gen-4 を活用すれば、テキストや1枚のイラストから高品質な動画を生成できるため、制作コストと時間が劇的に短縮される。

特に、YouTube やTikTok で活動するコンテンツクリエイターにとっては、サムネイル用の短尺動画や解説動画の素材生成に威力を発揮するだろう。Midjourney で生成した静止画を Gen-4 で動画化するワークフローも現実的だ。

映像制作業界への波及

日本の映像制作業界では、CM 制作やプリビズ(プリビジュアライゼーション:本撮影前のイメージ動画制作)での活用が先行すると予想される。特にプリビズは、監督やクライアントにイメージを共有するための「たたき台」として使われるため、AI 生成動画の品質で十分に役割を果たせる。

一方で、著作権の問題は引き続き課題だ。Gen-4 の学習データには映画やドラマの映像が含まれている可能性があり、生成された動画の著作権帰属については法的な議論が必要だ。日本では2025年に文化庁が「AI と著作権に関するガイドライン」を改定しており、商用利用する場合は最新のガイドラインを確認することが重要だ。

アニメ・ゲーム業界

日本が世界的に強みを持つアニメ・ゲーム業界への影響も見逃せない。Gen-4 の画像→動画変換を使えば、キャラクターイラストからアニメーション風の動画を生成できる。ゲームのカットシーン制作やプロモーション映像への活用が考えられる。

ただし、現状の Gen-4 は日本のアニメ特有の作画スタイル(セルルック、リミテッドアニメーション)の再現には最適化されていない。今後、日本のアニメスタジオと提携してファインチューニングが行われれば、この分野でも革新が起きる可能性がある。

まとめ — Gen-4 を活用するためのアクションステップ

Runway Gen-4 は、4K 解像度・最大2分・物理シミュレーション統合という3つの武器で、AI 動画生成の新たな基準を打ち立てた。料金は競合と比べて高めだが、プロユースに耐える品質を求めるなら十分に投資価値がある。

具体的なアクションステップとして、以下を推奨する。

  1. まずは Standard プラン($36/月)で試す: 1080p・30秒の制限はあるが、Gen-4 の基本性能を体験できる。テキストからの動画生成、画像からの動画変換を一通り試してワークフローへの組み込み方を検討しよう
  2. 既存の画像生成ツールと組み合わせる: Midjourney や Stable Diffusion で生成した静止画を Gen-4 に入力し、動画化するパイプラインを構築する。静止画の品質がそのまま動画の品質に反映されるため、入力画像のクオリティにはこだわろう
  3. 著作権ガイドラインを確認する: 商用利用を検討する場合は、文化庁の「AI と著作権に関するガイドライン」最新版と、Runway の利用規約を必ず確認する。生成物の権利帰属や、学習データに関する透明性について把握しておくことが重要だ

AI 動画生成技術は急速に進化しており、半年後には今の常識が覆されている可能性もある。まずは手を動かして試し、自分のクリエイティブワークフローにどう組み込めるかを実験的に探っていくことが、この技術を最大限活用する近道だ。

この記事をシェア