セキュリティ15分で読める

Confidential Computingが本格始動——メモリ暗号化で「使用中」データを守る

データセキュリティには「3つの状態」がある。保存中(At Rest)、転送中(In Transit)、そして**使用中(In Use)**だ。前者2つはディスク暗号化とTLSで解決済みだが、3番目の「メモリ上で処理中のデータの保護」は長年の未解決課題だった。Confidential Computingは、CPUのハードウェア機能を活用してこの最後のギャップを埋める技術であり、2026年についに主要クラウドプロバイダーで本番利用が本格化している。

AMD SEV-SNP、Intel TDX、ARM CCAという3つのハードウェア技術が揃い、AWSGoogle Cloud、Azureの全てがConfidential VMを提供する時代に入った。

Confidential Computingとは何か

データ保護の3段階

以下の図は、データ保護の3つの状態とConfidential Computingの位置づけを示しています。

データ保護の3段階。保存中・転送中は確立済み、使用中(In Use)をConfidential Computingが保護する

従来のクラウド環境では、データがメモリ上にロードされた瞬間から暗号化が解除される。これは以下のリスクを意味する。

  • クラウドプロバイダーの管理者がメモリダンプを取得すれば、処理中のデータにアクセス可能
  • 同一物理ホスト上の別テナントから、サイドチャネル攻撃(Spectre/Meltdown類)でメモリ内容を窃取される可能性
  • カーネルレベルの脆弱性を突かれた場合、ハイパーバイザーからゲストVMのメモリが読み取れる

Confidential Computingは、CPUのハードウェアレベルでメモリを暗号化し、ハイパーバイザーやクラウドプロバイダー自身でさえアクセスできない「信頼実行環境(TEE: Trusted Execution Environment)」を構築する。

TEEの基本原理

TEEの核心は以下の3要素だ。

  1. メモリ暗号化: CPUのメモリコントローラーが、メモリバス上のデータをリアルタイムで暗号化/復号。暗号鍵はCPU内部に保持され、外部からアクセス不可能
  2. 隔離: ハイパーバイザー、ホストOS、他のVMからTEE内のメモリ領域を完全に隔離
  3. リモートアテステーション: TEEが改ざんされていないことを、暗号学的に第三者が検証可能

ハードウェア技術の比較

項目AMD SEV-SNPIntel TDXARM CCA
正式名称Secure Encrypted Virtualization - Secure Nested PagingTrust Domain ExtensionsConfidential Compute Architecture
保護単位VM(ゲスト全体)Trust Domain(VM単位)Realm(VM単位)
暗号化方式AES-128 / AES-256AES-128 XTSAES-256
対応CPUEPYC 7004 (Genoa)+Xeon 5th Gen (Emerald Rapids)+ARMv9-A
メモリ整合性✓(SNPで追加)
アテステーションVCEK/VLEK証明書Intel SGX DCAP ベースRealm Token
パフォーマンス影響2-5%3-8%未公表
市場成熟度最も成熟急速に成長中開発段階

AMD SEV-SNP

AMDのSEV(Secure Encrypted Virtualization)は、Confidential Computingのパイオニアだ。

  • SEV(2017年): 初代。VM単位のメモリ暗号化。ただしメモリ整合性保護なし
  • SEV-ES(2020年): CPUレジスタの暗号化を追加
  • SEV-SNP(2022年): Secure Nested Paging。メモリ整合性保護を追加し、リプレイ攻撃やリマッピング攻撃を防御

SEV-SNPの「SNP」が重要な理由は、メモリの整合性保護だ。従来のSEVではメモリの内容は暗号化されていたが、ハイパーバイザーがメモリページを入れ替える(リマッピング)攻撃には脆弱だった。SNPはネストページテーブルにオーナーシップ追跡を追加し、この攻撃を防御する。

Intel TDX

Intel TDXは、IntelのConfidential Computing戦略の中核だ。従来のSGX(アプリケーションレベルのエンクレーブ)とは異なり、VM全体を保護する。

TDXの特徴は以下のとおり。

  • TDモジュール: ハイパーバイザーとVMの間に位置する信頼できるソフトウェアモジュール
  • SEPT(Secure EPT): 専用のページテーブルでTDのメモリを管理
  • Total Memory Encryption - Multi-Key (TME-MK): 複数のTDに異なる暗号鍵を割り当て

SGXは廃止の方向に向かっており(Xeon 5th Genでは非搭載)、IntelのConfidential Computing戦略はTDXに一本化されつつある。

ARM CCA

ARM CCAは、ARMv9-Aアーキテクチャで導入されたConfidential Computing機能だ。サーバー向けだけでなく、モバイルデバイスやエッジコンピューティングでも利用可能な点が特徴。

  • Realm: CCAにおける保護単位。通常のVMとは異なるセキュリティドメインで実行
  • RME(Realm Management Extension): ハードウェアレベルでRealmの隔離を実現
  • 対応チップ: NVIDIA Grace(ARM Neoverse V2ベース)が対応予定

クラウドプロバイダーの対応状況

以下の図は、主要クラウドプロバイダーのConfidential Computing対応状況を示しています。

AWS、Google Cloud、AzureのConfidential Computing対応比較

対応サービス比較

サービスカテゴリAWSGoogle CloudAzure
Confidential VM○(Nitro + SEV-SNP)○(SEV-SNP, TDX)○(SEV-SNP, TDX, SGX)
Confidential コンテナ○(EKS)○(GKE)○(AKS)
Confidential DB△(限定的)○(BigQuery, Spanner)○(Always Encrypted)
マルチパーティ計算○(Confidential Space)
アテステーションNitro AttestationShielded VM + AttestationMAA (Microsoft Azure Attestation)
GPU対応△(開発中)○(NVIDIA H100 TEE)○(NVIDIA H100 TEE)

Confidential GPU — AI時代の新要件

2026年のConfidential Computingで最も注目すべき進展がConfidential GPUだ。NVIDIA H100のTEE機能により、GPU上で処理中のAI/MLデータも暗号化が可能になった。

これは以下のユースケースで特に重要だ。

  • 医療AI: 患者データをクラウドGPUで処理しつつ、データの機密性を保証
  • 金融AI: 取引データを用いたモデル学習をクラウドで実行しつつ、規制要件を満たす
  • AI推論サービス: ユーザーのプロンプトやレスポンスがクラウドプロバイダーからも見えない推論環境

ユースケースと実装例

マルチパーティデータ分析

Confidential Computingの最も革新的なユースケースがマルチパーティ計算だ。競合する複数企業が、それぞれのデータを公開することなく、共同で分析を行える。

例えば、複数の銀行が不正検知モデルを共同で学習する場合を考える。

  1. 各銀行は自社の取引データをConfidential VMにアップロード
  2. TEE内でデータが結合され、不正検知モデルが学習される
  3. 各銀行は学習済みモデルのみを受け取る
  4. 他の銀行のデータには一切アクセスできない(TEEの暗号化により保証)

Google CloudのConfidential Spaceは、このユースケースを最もシンプルに実現するサービスだ。

コンテナワークロード

Confidential Containersは、既存のコンテナワークロードを最小限の変更でTEE内に移行できる。

# Confidential GKE Node Pool の作成例
gcloud container node-pools create confidential-pool \
  --cluster=my-cluster \
  --machine-type=n2d-standard-4 \
  --enable-confidential-compute \
  --num-nodes=3

上記のように、GKEでは--enable-confidential-computeフラグを追加するだけで、ノードプール上のすべてのPodがConfidential VM上で実行される。アプリケーションコードの変更は不要だ。

パフォーマンスとコスト

パフォーマンス影響

Confidential Computingのパフォーマンスオーバーヘッドは、技術の進歩により大幅に改善されている。

ワークロードAMD SEV-SNPIntel TDX
Webサーバー2-3%3-5%
データベース3-5%5-8%
AI推論1-2%2-4%
AI学習(GPU)2-5%N/A
メモリ集約型5-10%5-10%

多くのワークロードで5%未満のオーバーヘッドに収まっており、セキュリティ要件の高いワークロードでは十分に許容範囲だ。

コスト

プロバイダーConfidential VM 追加コスト備考
AWS0-10%増インスタンスタイプにより異なる
Google Cloud0%増Confidential VMは追加料金なし
Azure0-15%増DCsv3シリーズ

Google Cloudが追加料金なしでConfidential VMを提供している点は注目に値する。これはConfidential Computingの普及を加速させる重要な要因だ。

日本ではどうなるか

規制環境

日本の個人情報保護法(2022年改正)や、金融庁のFISC安全対策基準は、クラウド利用時のデータ保護を厳しく求めている。Confidential Computingは以下の点で日本の規制要件に適合する。

  • 個人情報保護法: 「安全管理措置」の一環として、使用中のデータ暗号化が技術的安全管理措置の高度な実装となる
  • FISC安全対策基準: クラウド利用時の「委託先管理」要件に対して、クラウドプロバイダー自身がデータにアクセスできないことを暗号学的に証明できる
  • マイナンバー関連: 特定個人情報のクラウド処理に対する懸念を、TEEで技術的に解消できる

業界別の需要

  • 金融: メガバンクを中心に、Confidential Computing の PoC が2025年から開始。勘定系システムのクラウド移行の阻害要因(データ機密性の懸念)をTEEで解消する動き
  • 医療: 厚生労働省の「医療情報システムの安全管理ガイドライン」(第6.0版)で、クラウド利用時のデータ保護がより具体的に求められている
  • 製造: 設計データや品質データのクラウド分析において、知的財産保護の観点からConfidential Computingの需要が高い

日本リージョンの対応

Google Cloud東京リージョンではConfidential VMが利用可能。AWS東京リージョンでもSEV対応インスタンスが提供されている。日本国内にデータを留めつつ、使用中の暗号化を実現できる環境が整っている。

まとめ:導入へのアクションステップ

Confidential Computingは「未来の技術」ではなく「今すぐ使える技術」になった。以下のステップで導入を検討してほしい。

  1. 規制要件の確認: 自社が扱うデータに対して、使用中の暗号化が規制上求められるか、または推奨されるかを確認する
  2. ワークロードの特定: 最も機密性の高いワークロード(個人情報処理、金融取引、AI推論)をリストアップし、Confidential Computing適用の優先順位を付ける
  3. クラウドプロバイダーの選定: Google Cloud(追加料金なし、最も先進的)、Azure(エンタープライズ実績)、AWS(Nitroエコシステム)から、既存環境との親和性で選択
  4. PoCの実施: 既存のワークロードをConfidential VM上にデプロイし、パフォーマンス影響を計測する。多くの場合、アプリケーションコードの変更は不要
  5. アテステーションの組み込み: リモートアテステーションをCI/CDパイプラインに組み込み、TEEの完全性を継続的に検証する仕組みを構築する

データが最も脆弱な瞬間——処理中——を保護するConfidential Computingは、ゼロトラストアーキテクチャの最後のピースだ。特にAI時代においてGPU上のデータ保護が実現したことで、この技術の重要性は今後さらに高まるだろう。

この記事をシェア