ビジネス15分で読める

量子エラー訂正が転換点を迎える——Google WillowとIBMが切り拓く耐障害性量子コンピューティング

「論理量子ビットのエラー率が、それを構成する物理量子ビットよりも低い」——量子コンピュータ研究者が数十年にわたって追い求めてきたこのマイルストーンが、2024年末のGoogle Willowチップで初めて達成され、2026年にかけて複数の研究グループで再現されつつある。同時にIBMは1,000量子ビットを超えるプロセッサを稼働させ、モジュラー型アーキテクチャで量子ビット数のスケーリングに道を開いた。量子エラー訂正(Quantum Error Correction, QEC)は今まさに転換点を迎えている。

本記事では、量子エラー訂正とは何か、なぜそれが重要なのか、Google・IBMの最新成果、そして実用化までの道のりを解説する。

量子エラー訂正とは何か

量子コンピュータが抱える根本問題

古典的なコンピュータのビットは「0」か「1」の確定した状態を持つ。一方、量子ビット(qubit)は「0と1の重ね合わせ」という脆弱な量子状態を利用して計算を行う。この重ね合わせ状態は、ほんのわずかな外部ノイズ——熱揺らぎ、電磁波、宇宙線——で崩壊してしまう。これがデコヒーレンスと呼ばれる現象であり、量子コンピュータの計算結果にエラーを引き起こす最大の要因だ。

現在の最先端量子ビットのエラー率は0.1〜1%程度。一見低く見えるが、数千ステップの量子回路を実行すると、エラーが雪だるま式に蓄積して計算結果が無意味になる。古典コンピュータのトランジスタのエラー率が10の-15乗以下であることと比較すると、量子ビットのエラー率は10桁以上も悪い

エラー訂正の基本原理

量子エラー訂正の基本的なアイデアは、複数の物理量子ビットを使って1つの「論理量子ビット」を構成することだ。物理量子ビットの一部がエラーを起こしても、残りの量子ビットの情報を使ってエラーを検出・修正できる。これは古典的なエラー訂正符号(例えばRAIDやECCメモリ)と概念的には似ているが、量子力学特有の制約——測定すると状態が壊れる、量子状態をコピーできない(量子複製不可能定理)——のために、実装は格段に難しい。

以下の図は、複数の物理量子ビットからエラー訂正コードを通じて信頼性の高い論理量子ビットを構成する仕組みを示しています。

量子エラー訂正の仕組み。物理量子ビットから表面符号によるエラー訂正を経て、高信頼性の論理量子ビットを構成する流れ

「閾値」という概念

量子エラー訂正には**閾値定理(Threshold Theorem)**という重要な理論がある。物理量子ビットのエラー率が一定の閾値を下回れば、量子ビットの数を増やすほど論理量子ビットのエラー率を指数関数的に下げられる、というものだ。逆に閾値を超えていると、量子ビットをいくら増やしてもエラーは改善しない。

この閾値はエラー訂正符号の種類によって異なるが、最も有望な表面符号(Surface Code)の場合、おおむね物理エラー率1%前後とされている。

Google Willow:閾値以下を初めて達成

105量子ビットの実証

2024年12月、Googleは量子AIチームが開発したWillowチップ(105量子ビット)で画期的な成果を発表した。表面符号を用いたエラー訂正実験において、符号距離を3から5、5から7へと拡大するたびに論理エラー率が指数関数的に低下することを実証した。これは「閾値以下(below threshold)」の動作が実現されたことを意味する。

具体的な数値を見てみよう。

符号距離使用する物理量子ビット数論理エラー率改善率
3173.028%──
5491.443%2.1倍改善
7970.143%10.1倍改善

符号距離を増やす(=より多くの物理量子ビットを使う)ほどエラー率が下がるこのトレンドが確認されたのは、量子コンピューティング史上初めてのことだ。特に符号距離5から7への改善が10倍以上という点は、指数関数的なスケーリングが本当に機能することを示している。

ランダム回路サンプリングの記録

Willow はエラー訂正だけでなく、計算性能でも注目すべき成果を挙げた。ランダム回路サンプリング(RCS)ベンチマークにおいて、現在の最速スーパーコンピュータで10の25乗年(宇宙の年齢を遥かに超える時間)かかる計算を5分以下で完了した。これは量子超越性(Quantum Supremacy)の圧倒的なデモンストレーションだ。

ただし、RCSは実用的な問題を解いているわけではない。あくまで「量子コンピュータが古典コンピュータにできないことをできる」ことの証明であり、実世界の問題を解くにはさらなるブレークスルーが必要だ。

IBMの1,000量子ビット戦略

Heronプロセッサとモジュラー設計

IBMは2023年末に1,121量子ビットのCondorプロセッサを発表した後、方針を転換して「量より質」を重視するHeronプロセッサ(133量子ビット)に注力した。Heronは2量子ビットゲートのエラー率を大幅に改善し、実用的な回路を実行できるレベルに引き上げた。

2025年以降、IBMはHeron系チップを複数接続する**モジュラーアーキテクチャ(Flamingo計画)**で、1,000量子ビット超のシステムを構築している。単一チップの量子ビット数を増やすのではなく、高品質な中規模チップを量子ネットワークでつなぐアプローチだ。

Google vs IBM:アプローチの比較

両社の戦略を比較すると以下のようになる。

項目GoogleIBM
主力チップWillow(105量子ビット)Heron(133量子ビット)
量子ビット種別超伝導トランズモン超伝導トランズモン
エラー訂正方式表面符号を直接実装エラー軽減 + 表面符号の段階的導入
スケーリング戦略単一チップの量子ビット数拡大モジュラー接続(Flamingo)
閾値以下の達成2024年12月に実証済み段階的に目指す
クラウドアクセス限定的IBM Quantum Networkで広く提供
強みエラー訂正の理論的優位性エコシステムと商用展開
2030年目標100万物理量子ビット100,000量子ビット(モジュラー)

Googleは「まずエラー訂正を完璧にする」という研究主導のアプローチ、IBMは「エラーが残る現状でも使える量子コンピュータを提供する」という実用主導のアプローチをとっている。最終的には両方のアプローチが統合される必要がある。

表面符号とトポロジカル符号の最前線

表面符号(Surface Code)

現在最も有望とされるエラー訂正符号だ。2次元の格子状に量子ビットを配置し、隣接する量子ビット間の相関(シンドローム)を測定してエラーを検出する。超伝導量子ビットとの相性が良く、必要な接続が最近接のみで済むため、チップ製造の観点からも実装しやすい。

表面符号の課題はオーバーヘッドの大きさだ。実用的な耐障害性を持つ論理量子ビット1つを作るのに、1,000〜10,000個の物理量子ビットが必要とされる。つまり、100個の論理量子ビットが必要なアルゴリズムを実行するには、10万〜100万個の物理量子ビットが必要になる。

トポロジカル符号

Microsoftが推進するトポロジカル量子ビットは、エラー訂正を物理レベルで実現するアプローチだ。マヨラナ粒子を利用して量子情報をトポロジカル的に保護するため、原理的にはエラー訂正のオーバーヘッドが大幅に小さくなる。2025年にMicrosoftが初のトポロジカル量子ビットの動作を主張したが、再現性については議論が続いている。

新しい符号の登場

2025年から2026年にかけて、表面符号を改良した**LDPC符号(Low-Density Parity-Check Code)カラーコード(Color Code)**の研究が急速に進んでいる。これらは表面符号よりもオーバーヘッドが小さく、符号距離あたりに必要な物理量子ビット数を削減できる可能性がある。

耐障害性量子コンピューティングへのロードマップ

以下の図は、2024年から2035年にかけての主要マイルストーンと応用分野の展望を示しています。

耐障害性量子コンピューティングへのロードマップ。2024年のGoogle Willow、2025年のIBM 1000+量子ビット、2026年の転換点から、2030年代の汎用量子コンピュータまでの道のり

フェーズ1:NISQ時代の成熟(2024〜2026年)

現在はNISQ(Noisy Intermediate-Scale Quantum)時代の後期に位置している。数百〜千量子ビット規模で、エラー訂正は部分的に機能するが、完全な耐障害性には至らない段階だ。Google Willowの閾値以下達成は、この時代の集大成であり次の時代への扉を開けた。

フェーズ2:初期耐障害性(2027〜2030年)

数十個の論理量子ビットが利用可能になり、古典コンピュータでは不可能な特定の量子化学シミュレーションや最適化問題が解ける段階。GoogleとIBMは2029〜2030年に実用的な量子優越性を達成する目標を掲げている。

フェーズ3:汎用量子コンピュータ(2032〜2035年以降)

1,000個以上の論理量子ビットが利用可能になり、Shorのアルゴリズム(大きな数の素因数分解)やGroverのアルゴリズム(データ検索の高速化)が実用規模で動作する段階。

応用分野:何が変わるのか

創薬・材料設計

量子コンピュータの最も有望な応用分野だ。新薬の候補分子を古典コンピュータでシミュレーションするには膨大な計算が必要で、近似に頼らざるを得ない。量子コンピュータなら分子のエネルギー状態を直接シミュレーションできるため、新薬開発のスピードが飛躍的に向上する。McKinseyの試算では、量子コンピュータによる創薬効率化で年間**$1.5兆(約225兆円)**の経済効果が見込まれるとされる。

暗号・セキュリティ

実用規模の量子コンピュータが実現すると、現在広く使われているRSA暗号やECC(楕円曲線暗号)が解読可能になる。ただし、RSA-2048の解読には約2,000万物理量子ビットが必要と推定されており、実現は2035年以降と見られている。各国政府はすでに**ポスト量子暗号(PQC)**への移行を開始しており、NISTは2024年に最初のPQC標準を策定した。

最適化問題

サプライチェーンの最適化、金融ポートフォリオの最適化、交通ルーティングなど、組合せ爆発が生じる問題に量子コンピュータが有効とされる。ただし、量子アニーリング(D-Waveなど)と汎用量子コンピュータの得意領域は異なり、どちらがどの問題に適しているかは現在も研究が進んでいる。

日本への影響と展望

国内の量子コンピュータ開発

日本では理化学研究所が国産超伝導量子コンピュータを2023年にクラウド公開し、富士通やNECも独自の量子プロセッサ開発を進めている。しかし量子ビット数・エラー率ともにGoogleやIBMとは1〜2世代の差があるのが現状だ。

2025年度の量子技術関連予算は約800億円に拡大されたが、米国の年間数千億円規模、中国の推定数兆円規模と比べると依然として小さい。日本が強みを持つのは量子センシングや量子通信の分野であり、量子コンピュータ本体よりも周辺技術やアプリケーション開発に注力する戦略が現実的だ。

企業への影響

日本企業にとって最も身近な影響はポスト量子暗号への移行だ。金融機関、通信事業者、政府機関は2030年までにPQCへの移行が推奨されている。移行には数年かかるため、今から準備を始める必要がある。

また、量子コンピュータのクラウドサービスはすでに利用可能だ。IBM Quantum NetworkやAmazon Braketを通じて量子アルゴリズムの検証を始めている日本企業も増えている。製薬、化学、金融業界では、量子コンピュータが実用化された際にすぐにアドバンテージを得られるよう、人材育成とアルゴリズム開発への先行投資が進んでいる。

投資の視点

量子コンピューティング市場は2026年時点で約**$1.3B(約1,950億円)、2030年には$8.6B(約1.3兆円)に拡大すると予測されている(BCG推計)。上場企業ではIonQ、Rigetti、D-Wave**が米国市場に上場しているが、いずれもまだ大規模な赤字を計上しており、投資にはハイリスクが伴う。安定したエクスポージャーを得るなら、Google(Alphabet)やIBM、Microsoftといった大手テック企業を通じた間接投資が堅実だ。

まとめ:今すべきアクション

量子エラー訂正が閾値以下を達成したことで、耐障害性量子コンピューティングは「理論上可能」から「工学的課題」へとステージが変わった。実用化まではまだ5〜10年の道のりがあるが、準備を始めるべきタイミングは今だ。

  1. ポスト量子暗号への移行計画を策定する: NISTのPQC標準(ML-KEM, ML-DSA)に基づき、自社システムの暗号アルゴリズム棚卸しを開始する
  2. 量子コンピューティングの基礎を学ぶ: IBMのQiskitやGoogleのCirqなど、無料の量子プログラミングフレームワークで実際に量子回路を動かしてみる
  3. 業界動向をウォッチする: Google、IBM、Microsoftの量子ロードマップの更新を定期的にチェックし、自社の業界に関連する量子アプリケーションの進捗を把握する

量子コンピュータが「使える」ようになった時、準備ができている企業とそうでない企業の差は計り知れない。今のうちから小さく始めることが、将来の大きなアドバンテージにつながる。

この記事をシェア