モビリティ19分で読める

韓国STRADVISION、カメラAIだけで自動運転を変える「SVNet」の実力

自動運転車に搭載されるセンサーといえば、屋根の上でぐるぐる回るLiDAR(ライダー)を想像する人が多いだろう。だが、LiDARの1台あたりのコストは数千ドルから数万ドルにもなり、量産車に搭載するには依然としてハードルが高い。この「コストの壁」に挑んでいるのが、韓国ソウル発のスタートアップ STRADVISION(ストラドビジョン) だ。

同社が開発するSVNetは、車載カメラの映像だけで車両・歩行者・車線・走行可能領域などを高精度に認識するAIソフトウェアである。組込みプロセッサ上で動作するよう極限まで軽量化されており、LiDARなしでもADAS(先進運転支援システム)レベルの安全性を実現できるという。すでに現代自動車グループをはじめ10社以上のOEM(自動車メーカー)と提携し、量産車への採用が進んでいる。

カメラだけで本当にLiDARと同等の認識精度を出せるのか。Tesla Visionとの違いは何か。そして日韓の自動車産業にとって何を意味するのか。本記事では、STRADVISIONの技術・戦略・競合比較から日本への影響まで、包括的に解説する。

STRADVISIONとは——韓国発の自動運転認識AI企業

会社概要

STRADVISIONは2014年に韓国ソウルで設立されたディープラーニング認識技術の専業企業だ。本社をソウルに置き、米国サンノゼ、ドイツミュンヘン、日本東京にもオフィスを構える。従業員数は約300名で、そのうちエンジニアが約70%を占める技術集団である。

これまでに累計で約$100M(約150億円) 以上の資金を調達しており、投資家にはLG Electronics、現代自動車のベンチャー投資部門であるHMG Ventures、韓国開発銀行(KDB)などが名を連ねる。2022年にはCES Innovation Awardを受賞し、グローバルでの知名度も向上している。

ビジネスモデル

STRADVISIONのビジネスモデルは、ソフトウェアライセンス型だ。自動車メーカー(OEM)やTier 1サプライヤーに対して、SVNetのソフトウェアをライセンス供与する。ハードウェア(カメラやプロセッサ)は自社で製造せず、ソフトウェアの開発と最適化に特化している点が特徴だ。

これは、自動車業界における「ソフトウェア定義車両(SDV: Software-Defined Vehicle)」のトレンドと合致している。車両の価値がハードウェアからソフトウェアに移行する中、STRADVISIONのような認識AIの専業企業が果たす役割は今後さらに大きくなる。

SVNetの技術的特徴——組込みAIで何ができるのか

以下の図は、SVNetのカメラベース認識パイプラインと、LiDAR併用方式とのコスト比較を示している。

SVNetのカメラベース認識パイプライン図。車載カメラからの映像入力をSVNet軽量DNNエンジンが処理し、物体検出・車線検出・深度推定などを出力してADAS/AD制御に渡す。下部にはカメラオンリー方式とLiDAR併用方式のコスト比較を表示。

この図が示すとおり、SVNetはカメラ映像から複数の認識タスクを単一のニューラルネットワークで処理し、低消費電力プロセッサ上でリアルタイム実行を可能にしている。

マルチタスク認識

SVNetの最大の特徴は、1つのDNN(深層ニューラルネットワーク)で複数の認識タスクを同時に処理できる点だ。具体的には以下の機能を統合的に実行する。

  • 物体検出: 車両、歩行者、自転車、バイクなどを分類・位置特定
  • 車線検出: 白線・黄線の位置と曲率をリアルタイムで推定
  • 走行可能領域検出: 車両が安全に走行できる路面領域をセグメンテーション
  • 深度推定: 単眼カメラから距離情報(深度マップ)を推定
  • セマンティックセグメンテーション: ピクセル単位で道路・建物・空・植生などを分類

通常、これらの認識タスクにはそれぞれ個別のモデルが必要となり、計算資源が膨大になる。SVNetはこれらを共通のバックボーンネットワークで処理することで、計算量を大幅に削減している。

組込み最適化

SVNetが他の認識AIと一線を画すのは、組込みプロセッサへの最適化が徹底されている点だ。

  • 対応チップ: NXP S32、Texas Instruments TDA4、Qualcomm Snapdragon Ride、Renesas R-Car V4Hなど
  • 消費電力: 2〜5Wの低消費電力SoCで動作可能
  • 推論速度: 30fps以上のリアルタイム処理
  • モデルサイズ: 量子化・プルーニングにより数十MB以下に圧縮

比較として、NvidiaのDRIVE Orin SoCは消費電力が45〜275Wであり、サーバーグレードの冷却設計が必要になる。STRADVISIONのアプローチは「高性能GPUがなくても、カメラ映像からの認識は十分に実用化できる」という思想に基づいている。

学習データとOTA更新

SVNetはOTA(Over-the-Air)アップデートに対応しており、車両を工場に持ち込むことなく認識モデルを更新できる。これにより、以下のような改善が継続的に可能だ。

  • 新しい道路標識・交通規制への対応
  • 夜間・悪天候時の認識精度向上
  • 地域固有の交通状況への適応(日本の路地裏、インドの混合交通など)

カメラオンリー vs LiDAR——自動運転業界最大の論争

自動運転業界では、「カメラだけで安全な自動運転は可能か」という議論が長年続いている。STRADVISIONの立ち位置を理解するには、この論争の構図を把握する必要がある。

カメラオンリー派の論理

カメラオンリーを推進する陣営(Tesla、STRADVISION、Mobileyeの一部製品ラインなど)の主張は以下の通りだ。

  1. 人間はカメラ(目)だけで運転している: 人間の視覚システムは光学情報のみで距離・速度を推定しており、AIも同じことが可能なはず
  2. コスト優位性: カメラ1台のコストは$10〜$50。LiDARの100分の1以下
  3. スケーラビリティ: 低コストなら量産車全車に搭載でき、フリート規模でデータ収集が可能
  4. 進化速度: ディープラーニングの進化により、カメラベースの深度推定精度は年々向上している

LiDAR推進派の論理

一方、Waymo、Cruise(休止中)、一部のTier 1サプライヤーはLiDARの必要性を主張する。

  1. 物理的に正確な3D測距: LiDARは光の飛行時間(ToF)で距離を直接測定するため、カメラの推定よりも原理的に正確
  2. 悪条件への耐性: 逆光・夜間でもLiDARは安定した測距が可能(ただし、雨・霧には弱い)
  3. 安全冗長性: カメラが故障しても、LiDARがバックアップとして機能
  4. 規制対応: 一部の国ではL3以上の自動運転にLiDARを事実上の要件として求める可能性

STRADVISIONの立ち位置

STRADVISIONは「カメラオンリー」を基本としつつも、センサーフュージョン(LiDAR・レーダーとの統合)にも対応している。つまり、純粋なカメラオンリー原理主義ではなく、「カメラを中核としつつ、OEMの要望に応じてセンサー構成を柔軟に選べる」というプラグマティックなアプローチだ。

この柔軟性が、複数のOEMとの提携を可能にしている要因の一つでもある。

競合比較——世界のカメラベース自動運転認識プレイヤー

以下の図は、2026年時点での主要プレイヤーの比較を示している。

カメラベース自動運転の主要プレイヤー比較表。STRADVISION、Mobileye、Tesla Vision、Nvidia DRIVE、Waymoの5社について方式・ターゲットレベル・OEM提携数・強みを比較。STRADVISIONは組込み最適化と低コストが強み。

この図が示すとおり、各社のアプローチは対象とする自動運転レベルと、ソフトウェアの展開戦略によって大きく異なる。

詳細比較表

項目STRADVISIONMobileyeTesla VisionNvidia DRIVEWaymo
本社韓国ソウルイスラエル米国テキサス米国カリフォルニア米国カリフォルニア
主力製品SVNetEyeQ6FSD(Full Self-Driving)DRIVE Orin / ThorWaymo Driver
方式カメラ + 軽量AIカメラ + レーダー + 独自SoCカメラのみマルチセンサー + 高性能GPULiDAR + カメラ + レーダー
対象レベルL2+ 〜 L3L2 〜 L4L2+(FSD Supervised)L2 〜 L5L4(完全無人)
チップ要件低消費電力SoC(2〜5W)独自EyeQ SoC(5〜30W)Tesla HW4(72 TOPS)Orin/Thor(200〜2000 TOPS)カスタムコンピュート
センサーコスト$100〜$300$200〜$800$500〜$1,000$1,000〜$5,000+$10,000+
OEM提携10社以上50社以上Tesla専用20社以上自社 + 提携拡大中
データ収集規模OEM経由年間数十億km年間数百億kmOEM経由自社フリート
評価額 / 時価総額非公開($500M+推定)約$14B(Intel子会社)Tesla時価総額に内包Nvidia時価総額に内包非公開($45B+推定)

STRADVISIONの独自ポジション

この比較から見えてくるSTRADVISIONの独自ポジションは以下の3点だ。

1. 「L2+ ADAS量産」に特化した実用主義

完全無人運転(L4/L5)を目指すWaymoやTeslaとは異なり、STRADVISIONは今すぐ量産車に搭載できるL2+ ADASにフォーカスしている。L4の実現には規制・技術・保険の各面でまだ数年〜十数年のタイムラインが見込まれるが、L2+ ADASは今まさに需要が爆発している市場だ。

2. プラットフォーム非依存

Tesla VisionはTesla車専用、MobileyeはEyeQ SoC専用、Nvidia DRIVEはNvidia GPU依存だが、SVNetは複数メーカーのチップ上で動作する。これにより、OEMはチップベンダーの選択とソフトウェアの選択を分離でき、コスト最適化とサプライチェーンリスク分散が可能になる。

3. 韓国自動車産業とのシナジー

現代自動車グループ(現代・起亜)は世界第3位の自動車メーカーグループであり、STRADVISIONにとって最大の顧客でありパートナーでもある。現代自動車の電気自動車プラットフォーム「E-GMP」やIONIQブランドへのSVNet搭載が進めば、数百万台規模の量産採用につながる。

日本の自動運転市場とSTRADVISION——日韓技術連携の可能性

日本のADAS市場の現状

日本のADAS市場は、2025年時点で約1兆5,000億円規模と推定されており、2030年には2兆5,000億円を超えると予測されている。日本の自動車メーカーは安全技術への投資に積極的であり、スバルの「アイサイト」、トヨタの「Toyota Safety Sense」、日産の「ProPILOT」など、各社が独自のADASブランドを展開している。

しかし、これらのシステムの多くは自社開発のアルゴリズムまたはMobileyeのEyeQ SoCに依存しており、ソフトウェアの柔軟性やコスト構造に課題を抱えている。

STRADVISIONの日本展開

STRADVISIONは東京にオフィスを構えており、日本市場への本格参入を視野に入れている。日本の自動車メーカーにとってSTRADVISIONの技術が魅力的な理由は以下の通りだ。

  1. コスト削減: MobileyeのEyeQ SoCには独自チップの調達コストが含まれるが、SVNetは汎用SoC上で動作するため、チップコストを抑えられる
  2. カスタマイズ性: 日本の交通環境(狭い道路、複雑な交差点、独自の道路標識)に合わせたモデルチューニングが可能
  3. サプライチェーン分散: Mobileyeへの依存度を下げ、ソフトウェアサプライヤーの選択肢を広げられる
  4. 韓国自動車部品エコシステム: 日本の自動車メーカーは韓国の部品サプライヤー(サムスンSDI、LG Energy Solution等)との取引が増えており、STRADVISIONとの提携も自然な流れ

デンソーとの関係

日本のTier 1最大手であるデンソーは、自社で画像認識AIを開発する一方、外部のソフトウェアパートナーとの協業も進めている。デンソーのルネサスR-Car V4Hプラットフォーム上でSVNetが動作する実績があり、今後の協業拡大が注目される。

自動運転レベル3の規制進展

日本は2023年4月にレベル3自動運転を法的に認可した世界初の国の一つであり、ホンダのLEGEND(限定販売)が世界初のレベル3市販車となった。2026年現在、高速道路でのレベル3走行条件が段階的に緩和されており、これに対応するためのADASソフトウェアの高度化需要が高まっている。

STRADVISIONのSVNetは、レベル3対応に必要な高精度認識(歩行者の意図予測、複雑な交差点での優先判断など)をカメラベースで実現できるため、日本のOEMにとって有力な選択肢となりうる。

自動運転認識技術の今後——2030年に向けた予測

カメラAIの進化方向

カメラベースの認識技術は、今後以下の方向で進化が予測される。

  1. Transformerアーキテクチャの採用: 画像認識の主流がCNN(畳み込みニューラルネットワーク)からVision Transformer(ViT)に移行しつつあり、長距離の文脈理解が向上する
  2. Occupancy Network: Tesla が先行する「3D空間のボクセル占有予測」がカメラベース認識の標準手法になる可能性
  3. 基盤モデルの活用: 大規模言語モデル(LLM)と視覚モデルを統合した「VLM(Vision-Language Model)」が運転シーンの意味理解を高度化
  4. エッジAIチップの進化: NXP、Renesas、Qualcommの次世代SoCが10TOPS以上の処理能力を5W以下で実現し、カメラAIの適用範囲が拡大

LiDARの価格下落と統合の未来

一方で、LiDARの価格も急速に下がっている。中国のHesai、RoboSenseなどが$200〜$500の固体式LiDARを量産しており、「カメラ vs LiDAR」の二項対立は徐々に「カメラ + 低コストLiDAR」のフュージョンに収束する可能性が高い。

STRADVISIONはこのトレンドにも対応しており、SVNetのセンサーフュージョンモジュールはLiDARの点群データとカメラの画像データを統合する機能を備えている。つまり、カメラオンリーで始めて、将来的にLiDARを追加するという段階的なアップグレードパスを提供できる。

市場規模予測

自動運転認識ソフトウェアの世界市場は以下のように成長が見込まれている。

市場規模(推定)成長ドライバー
2024約$8B(約1.2兆円)L2 ADAS標準搭載の進展
2026約$15B(約2.3兆円)L2+ / L3の規制整備・量産化
2028約$25B(約3.8兆円)L3高速道路走行の普及
2030約$40B(約6兆円)L4限定地域サービスの商用化

STRADVISIONが狙うL2+ ADAS向け認識ソフトウェアは、この市場の中で最もボリュームが大きいセグメントだ。

まとめ——STRADVISIONが示す「低コスト自動運転」の現実解

STRADVISIONは、完全自動運転という遠い理想を追いかけるのではなく、「今すぐ、低コストで、量産車に搭載できる認識AI」 という現実的なアプローチで市場を開拓している。SVNetのプラットフォーム非依存性、組込み最適化、そして韓国自動車産業との深い結びつきは、Mobileye一強だったADAS認識市場に新たな選択肢を提供するものだ。

日本の自動車メーカーにとっても、Mobileyeへの依存度を下げつつ、カスタマイズ性の高い認識AIをコスト効率よく導入できるSTRADVISIONは注目に値する。日韓の自動車産業の技術連携が進む中、STRADVISIONの存在感は今後さらに高まるだろう。

アクションステップ

  1. 自動車業界関係者: STRADVISIONの公式サイトでSVNetの技術仕様と対応チップリストを確認し、自社のADASプラットフォームとの互換性を検討する
  2. 投資家・アナリスト: ADAS認識ソフトウェア市場の成長率(年平均25%以上)とSTRADVISIONのOEM提携状況をウォッチし、IPO前の評価動向を追う
  3. エンジニア・研究者: カメラベース深度推定(MonoDepth、MiDaS等)とOccupancy Networkの最新論文を追い、組込みAI向けのモデル圧縮技術(量子化・プルーニング・蒸留)の知見を蓄積する

この記事をシェア