AI16分で読める

iOS 26.4でSiriが「画面認識AI」に進化——Googleの1.2兆パラメータGeminiで駆動

Appleが2026年3月にリリースを予定しているiOS 26.4で、Siriが根本から生まれ変わる。最大の目玉は**「画面認識(On-Screen Awareness)」機能だ。ユーザーが今まさに見ている画面の内容をSiriがリアルタイムで理解し、文脈に応じた回答やアクション実行を行う。この機能を支えるのは、Googleが開発した1.2兆パラメータのGeminiモデル**。Apple独自のPrivate Cloud Compute(PCC)基盤上で動作し、プライバシーを守りながら高度なAI処理を実現する。

これまで「使えない」と揶揄されてきたSiriが、ようやく本格的なAIアシスタントとして競合と肩を並べる——いや、画面認識機能においてはリードを取る可能性すらある。本記事では、iOS 26.4のSiri新機能の全貌、Apple×Google提携の背景、そして競合AIアシスタントとの比較を徹底解説する。

画面認識(On-Screen Awareness)とは何か

画面認識とは、SiriがユーザーのiPhone画面に表示されている内容——テキスト、画像、UIコンポーネント、アプリの状態——をリアルタイムで解析し、その文脈を踏まえた応答を返す機能だ。

従来のSiriとの違い

従来のSiriは「明示的な命令」にしか対応できなかった。例えば「明日の天気を教えて」「タイマーを5分にセットして」といった、定型的なコマンドが中心だ。画面に何が表示されているかは一切認識しておらず、ユーザーが文脈を自分で言語化する必要があった。

iOS 26.4のSiriは違う。ニュース記事を読んでいるときに「これを要約して」と言えば、画面上の記事全文を認識して要約を返す。レストランの情報を見ているときに「ここを予約して」と言えば、店名・住所・電話番号を画面から抽出し、予約アプリを起動して情報を自動入力する。

技術的な仕組み

画面認識は以下の3層構造で動作する。

  1. スクリーンキャプチャ層: システムレベルでの画面キャプチャ。アクセシビリティAPIとビジョンフレームワークを組み合わせ、画面上の全要素をセマンティックに解析する
  2. コンテキスト推論層: キャプチャされた情報をGeminiモデルに送信し、ユーザーの意図を推論する。「これ」「ここ」「この人」といった指示語の参照解決もここで行う
  3. アクション実行層: 推論結果に基づき、適切なアプリのAPIを呼び出してタスクを実行する。App Intentsフレームワークの拡張により、サードパーティアプリとの連携も可能

以下の図は、Siri × Gemini統合のアーキテクチャとクロスアプリ連携フローを示しています。

Siri×Gemini統合アーキテクチャ。オンデバイス処理とPrivate Cloud Computeの二層構造、および画面認識からアプリ連携までの4ステップフロー

この図が示すように、軽量なタスクはApple Neural Engineによるオンデバイス処理で完結し、高度な推論が必要な場合のみPrivate Cloud Compute上のGeminiモデルが呼び出される。このハイブリッド構造により、応答速度とプライバシーの両立を図っている。

なぜGoogleのGeminiなのか——Apple×Google提携の深層

Appleが自社開発ではなく、GoogleのGeminiを採用した背景には、複数の戦略的要因がある。

パラメータ規模の壁

1.2兆(1.2 trillion)パラメータのGeminiモデルは、現時点で商用利用可能な最大級のマルチモーダルLLMだ。テキスト・画像・音声・動画を統合的に処理できる能力は、画面認識のようなマルチモーダルタスクに不可欠となる。Apple独自のAIモデル(Apple Intelligence基盤モデル)は推定2000億パラメータ程度とされており、Geminiの6分の1に留まる。画面認識のような高度なタスクでは、このパラメータ差が顕著な性能差として現れる。

既存の検索契約の延長線

AppleとGoogleは、Safari のデフォルト検索エンジン契約で年間推定**200億ドル(約3兆円)**の取引関係にある。AI分野での提携は、この既存関係の自然な拡張と見ることができる。Googleにとっても、iPhoneユーザー10億人以上へのGemini展開は、広告以外のAI収益化チャネルとして極めて魅力的だ。

Private Cloud Computeによるプライバシー担保

Appleがプライバシーの懸念なくGoogleのモデルを採用できるのは、Private Cloud Compute(PCC)の存在が大きい。PCCはAppleが設計した専用サーバーで動作し、以下の特徴を持つ。

  • データの非永続化: 処理が完了した時点でユーザーデータはメモリから完全に消去される
  • 暗号化通信: デバイスとPCC間の通信はエンドツーエンドで暗号化
  • 監査可能性: セキュリティ研究者がPCCのコードを検証できる仕組みを提供
  • Googleへのデータ非送信: Geminiモデル自体はAppleのPCC上で動作し、ユーザーデータがGoogleのサーバーに送られることはない

つまり、Geminiの「頭脳」だけを借りて、データはAppleの管理下に置くという構図だ。

クロスアプリ統合の実力

iOS 26.4のSiriが画面認識と並んで強化したのが、シームレスなクロスアプリ統合だ。

具体的なユースケース

シナリオ従来のSiriiOS 26.4のSiri
メールの予定をカレンダーに追加メールを開く → 日時をコピー → カレンダーアプリを開く → 手動入力「このメールの予定をカレンダーに入れて」で完了
写真の場所をマップで確認写真の位置情報を確認 → マップアプリを開く → 手動検索「この写真の場所をマップで開いて」で完了
Webページの商品を購入商品名をコピー → ショッピングアプリを開く → 検索 → 購入「これをAmazonで買って」で購入画面まで遷移
レストランの予約店名をメモ → 予約アプリを開く → 手動入力「ここを今週土曜に予約して」で予約アプリが起動・情報自動入力
SNS投稿の翻訳テキストをコピー → 翻訳アプリを開く → ペースト「これを日本語に翻訳して」で画面上にインライン表示

App Intentsの進化

この統合を支えるのが、iOS 26.4で大幅に拡張されたApp Intentsフレームワークだ。開発者はアプリのアクションをApp Intentsとして定義するだけで、Siriが自動的にそのアプリの機能を呼び出せるようになる。iOS 26.4では新たに200以上のシステムIntentが追加され、Appleの純正アプリはもちろん、対応するサードパーティアプリとの連携も飛躍的に向上した。

AIアシスタント4社を徹底比較

iOS 26.4のSiriは、AIアシスタント市場においてどのポジションに立つのか。主要4社を比較する。

以下の図は、Siri、Google Assistant、Samsung Galaxy AI、Amazon Alexaの主要機能を比較したものです。

AIアシスタント主要4社の機能比較表。画面認識、クロスアプリ連携、プライバシー、対応デバイス、料金、総合評価を比較

この比較から見えてくるポイントを整理する。

Siri(iOS 26.4)の強み

  • 画面認識で唯一の「完全対応」: Google Assistantも一部画面認識に対応しているが、対象アプリが限られる。Siriはシステムレベルで全アプリの画面を認識できる点で優位
  • プライバシーとAI性能の両立: PCCによるオンプレミス的な運用で、クラウドAIのパワーとプライバシーを両立
  • 追加料金なし: OS組込みのため、iPhoneユーザーは追加料金なしで全機能を利用可能

Google Assistantの強み

  • プラットフォーム非依存: Android、iOS、Web、スマートスピーカーなど最も幅広いデバイスで利用可能
  • Gemini直接搭載: GoogleのインフラでGeminiを直接動作させるため、モデルのアップデートが最速で反映される
  • Google Workspaceとの深い統合: Gmail、Google Calendar、Google Docsとの連携は群を抜く

Samsung Galaxy AIの課題

  • Galaxy限定のエコシステム: Samsung端末でしか利用できないため、市場リーチが限定的
  • 独自モデルの性能: Samsung Gauss 2のパラメータ数は非公開だが、GeminiやGPT-4oクラスには及ばないとの評価が多い

Amazon Alexaの方向転換

  • Alexa+の有料化: 月額$19.99(約3,000円)という価格設定はハードルが高い
  • スマートホーム特化: モバイルAIアシスタントとしてではなく、スマートホームハブとしての存在感が大きい

日本市場への影響

日本語対応の見通し

iOS 26.4の画面認識機能は、発表時点では英語のみの対応が予想される。日本語を含む多言語対応は、iOS 27(2026年秋)以降に順次展開されるとの情報がある。ただし、Geminiモデル自体は日本語を高い精度で処理できるため、日本語対応が実現すれば性能面での大きな落ち込みは予想されない。

日本のiPhoneシェアと影響度

日本のスマートフォン市場においてiPhoneのシェアは約**65〜70%**と、世界的に見ても突出して高い。仮にSiriの画面認識機能が日本語に対応すれば、日本のスマートフォンユーザーの過半数がこの機能の恩恵を受けることになる。

日本企業への示唆

日本のアプリ開発者にとって、App Intentsへの対応は急務となる。Siriが画面認識でアプリの機能を「発見」できるようになったことで、App Intentsに対応しているアプリは自然な形でユーザーに推薦される。逆に対応していないアプリは、Siri経由のトラフィックを逃すことになり、ダウンロード数やエンゲージメントに影響が出る可能性がある。

特に以下のカテゴリのアプリは早期対応が推奨される。

  • 飲食予約: 食べログ、ホットペッパーグルメ
  • ECサイト: 楽天市場、Yahoo!ショッピング
  • 交通・ナビ: 乗換案内、Yahoo!カーナビ
  • 金融: 各銀行アプリ、証券アプリ

料金体系と利用条件

iOS 26.4のSiri新機能の利用条件を整理する。

項目内容
対応デバイスiPhone 16シリーズ以降(A18チップ搭載機)
OS要件iOS 26.4以降
追加料金無料(Apple Intelligence一部機能はApple One加入推奨)
画面認識の対応言語英語(初期)→ 順次多言語対応予定
クロスアプリ連携全Appleアプリ + App Intents対応サードパーティアプリ
プライバシーオンデバイス処理 + PCC(ユーザーデータはGoogle非送信)
Geminiとの比較同じGeminiモデルだが、Apple PCC上で動作する点が異なる

なお、Gemini Advanced(月額$19.99 / 約3,000円)を単体で契約する場合と比較すると、iPhoneユーザーは追加料金なしで同等のAI性能を享受できることになる。これはAndroidユーザーやPCユーザーにとってのGeminiサブスクリプションの価値にも影響を与えるだろう。

今後の展望 ─ AIアシスタント戦争の行方

短期(2026年後半)

  • Apple: iOS 27で日本語を含む多言語対応、Vision Proとの連携強化
  • Google: Gemini 2.0(推定2兆パラメータ)へのアップグレード、Android統合の深化
  • Samsung: Galaxy S27シリーズでGauss 3搭載を予定
  • Amazon: Alexa+の値下げまたは無料化の可能性

中期(2027年以降)

AIアシスタントの競争は、単なる「質問応答」から**「ユーザーの代理人(エージェント)」**へとシフトする。画面認識はその第一歩に過ぎない。今後は以下のような機能が実現されると予想される。

  • 自律的なタスク実行: 「来週の大阪出張を手配して」で、航空券検索・ホテル予約・経路案内を一括実行
  • パーソナルナレッジグラフ: ユーザーの行動履歴・好み・人間関係を学習し、先回りして提案
  • マルチデバイスシームレス: iPhone、Mac、Vision Pro間でコンテキストを引き継ぎ

まとめ ─ 今すぐできるアクション

iOS 26.4のSiri×Gemini統合は、AIアシスタントの新たな標準を定義する可能性がある。読者が今取るべきアクションを3つにまとめる。

  1. iPhone 16以降を使用中の方: iOS 26.4リリース(2026年3月下旬予定)後すぐにアップデートし、画面認識機能を試す。「設定 → Siri → 画面認識」で有効化できる見込み
  2. アプリ開発者の方: App Intentsフレームワークのドキュメントを確認し、自社アプリの主要機能をIntent化する。WWDC 2026のセッション動画が最良の学習リソースとなる
  3. AIアシスタントの乗り換えを検討中の方: 現在Gemini Advancedを有料契約している場合、iPhoneへの乗り換えでSiri経由のGemini利用に切り替えれば月額$19.99の節約になる。ただし、日本語対応はiOS 27以降になる可能性が高いため、日本語での利用を重視するなら現時点ではGemini Advancedの直接利用が確実だ

Appleの「プライバシーファースト」とGoogleの「AIファースト」という、一見矛盾する2社の哲学が融合したこのアップデート。AIアシスタントの歴史において、2026年3月は大きな転換点として記憶されることになるだろう。

この記事をシェア