セキュリティ12分で読める

AIフィッシングとディープフェイク音声詐欺が急増——被害総額$25B

「社長の声で電話がかかってきたら、あなたは見破れますか?」——2026年、この問いはもはや仮定の話ではありません。FBIのIC3(Internet Crime Complaint Center)最新レポートによると、AIを悪用したフィッシング詐欺とディープフェイク音声による詐欺の被害総額は$25B(約3.7兆円)に達し、前年比で68%増加しました。

従来のフィッシングメールは文法の誤りや不自然な表現で見破ることができましたが、LLM(大規模言語モデル)を活用した新世代のフィッシングは完璧な文法でターゲットの業務内容に合わせてパーソナライズされます。さらにディープフェイク音声技術の進化により、わずか3秒の音声サンプルからCEOやCFOの声を複製し、電話で送金を指示するケースが急増しています。

AIフィッシングの仕組み

LLMによるフィッシングメール生成

従来のフィッシングメールは大量のテンプレートを送りつける「数撃ちゃ当たる」方式でした。しかし2026年のAIフィッシングは根本的に異なります。

攻撃者はまず、LinkedIn、Twitter、企業のプレスリリース、採用ページなどからターゲットの情報を自動収集します。次にLLMを使って、その人物の業務内容、役職、最近の活動に完全にパーソナライズされたフィッシングメールを生成します。

この図は、AIフィッシングからディープフェイク音声詐欺までの攻撃フローと企業防御策を示しています。

AIフィッシング攻撃の4ステップ——情報収集からパーソナライズメール生成、ディープフェイク音声詐称、送金指示までの流れ

具体的な進化のポイントは以下の通りです。

  • 多言語対応: 英語だけでなく日本語・中国語・ドイツ語など、ターゲットの母語に合わせた自然な文章を生成
  • コンテキスト理解: 「先日の取締役会で承認された件の続きです」のように、実在するイベントに言及
  • 緊急性の演出: 「監査が来週入るので今日中に処理が必要」といった時間的プレッシャーを巧妙に作成
  • 送信元の偽装: 正規のドメインに酷似したドメインからの送信、SPF/DKIM認証のすり抜け

ディープフェイク音声詐欺の脅威

2026年に最も急成長しているサイバー犯罪の一つが、ディープフェイク音声を使った「ビッシング(Voice Phishing)」です。

香港の事例(2025年): 英国の多国籍企業の香港支社で、CFOのディープフェイク映像を使ったビデオ会議が行われ、$25.6M(約38億円)が不正送金されました。15人の参加者のうち、CFO以外は全員本物の社員でしたが、誰もディープフェイクに気づきませんでした。

技術の進化: 最新のディープフェイク音声技術は、わずか3秒の音声サンプルから話者の声を高精度で複製できます。電話回線越しでは人間が聞き分けることはほぼ不可能とされ、専門家のブラインドテストでも正答率は53%(ほぼランダム)でした。

リアルタイム変換: 2026年にはリアルタイムで声を変換しながら会話できるツールが登場。攻撃者は自分の声で話しながら、リアルタイムでCEOの声に変換して電話をかけることが可能になりました。

従来型 vs AI フィッシングの比較

この図は、従来型フィッシングとAIフィッシングの検知率・成功率の差を示しています。

従来型フィッシングとAIフィッシングの比較——クリック率・検知回避率・認証情報入力率すべてでAIフィッシングが3倍以上の脅威

比較項目従来型フィッシングAIフィッシング差異
メールクリック率4.2%12.8%3.0倍
メールフィルタ回避率22%82%3.7倍
認証情報入力率1.8%7.1%3.9倍
平均被害額$47K$4.7M100倍
作成コスト(1件)$50$0.501/100
多言語対応限定的完全対応-
パーソナライズテンプレート個別最適化-

特に注目すべきは、AIフィッシングの作成コストが従来型の100分の1であるにもかかわらず、被害額は100倍に達する点です。攻撃の「費用対効果」が劇的に向上しています。

実際の攻撃事例

事例1: 日本の大手商社への攻撃(2025年末)

攻撃者は、ある大手商社の海外拠点の社長の音声を決算説明会の録音から取得。ディープフェイク音声で東京本社の財務部に電話をかけ、「緊急の案件で$3.2M(約4.8億円)の送金が必要」と指示しました。普段と変わらない声色と口調に、担当者は疑うことなく送金手続きを開始。途中で別ルートでの確認を行ったため未遂に終わりましたが、確認プロセスがなければ被害は確実でした。

事例2: 英国金融機関への複合攻撃

まずAIフィッシングメールで中間管理職の認証情報を窃取。次にその管理職になりすましてSlackで部下に指示を出し、さらにCFOのディープフェイク音声で電話をかけて送金を承認させるという三段階の複合攻撃が行われました。被害額は$12M(約18億円)に達しました。

事例3: サプライチェーン攻撃

取引先のCEOの声でディープフェイク電話をかけ、「振込先の口座が変更になった」と伝える手口。請求書詐欺とディープフェイクを組み合わせた新しい攻撃パターンとして2026年に急増しています。

検知技術の最前線

AIによるAI攻撃の検知

皮肉なことに、AIフィッシングを検知するにもAIが必要です。2026年時点で以下の技術が実用化されています。

  • LLMテキスト検出: AI生成テキストの統計的特徴(パープレキシティの均一性、トークン分布の偏り)を分析して検知。精度は85〜92%
  • ディープフェイク音声検出: 声のスペクトログラム分析、呼吸パターンの異常検出、マイクロ秒単位のタイミング分析。精度は88〜95%
  • 行動分析AI: メールの送信パターン、文体の変化、送金指示の異常性をリアルタイムで分析
  • 多要素認証の音声バイオメトリクス: 声紋認証とライブネス検出を組み合わせた本人確認

主要検知ソリューション

ソリューション種類検知精度価格帯特徴
Pindrop音声検知95%要問い合わせ金融機関向け音声認証
Abnormal Securityメール検知92%$4/ユーザー/月〜行動分析ベース
Darktrace総合検知89%要問い合わせ自己学習型AI
Hoxhunt訓練+検知87%$3/ユーザー/月〜フィッシング訓練統合
Reality Defender映像/音声検知93%要問い合わせリアルタイムディープフェイク検知

企業が今すぐ実施すべき対策

技術的対策

  1. 多要素認証の完全導入: 1Passwordでパスワード管理を一元化し、全アカウントにFIDO2/WebAuthn方式のMFAを適用。SMSベースのMFAはSIMスワップ攻撃で突破されるため、ハードウェアキーまたはパスキーを使用する

  2. メールセキュリティの強化: DMARC、SPF、DKIMの厳格な設定に加え、AI検知機能を持つメールセキュリティゲートウェイを導入

  3. ネットワーク保護: NordVPNなどのVPNで通信を暗号化し、特にリモートワーク環境でのMITM(中間者攻撃)を防止

プロセス的対策

  1. 送金承認の多段階化: 電話のみの指示では送金を承認しないルールを徹底。必ず複数チャネル(メール + 電話 + 対面/ビデオ)での確認を要求

  2. コールバック認証: 着信した電話の指示に従うのではなく、登録済みの電話番号に折り返して本人確認

  3. 合言葉の設定: 経営幹部間で事前に合言葉を設定し、高額送金時に確認

人的対策

  1. AIフィッシング訓練: 従来のフィッシング訓練をAI生成メールに対応したものに更新。四半期ごとに実施
  2. ディープフェイク認知教育: 「声だけで本人確認しない」ことを全従業員に徹底
  3. 報告文化の醸成: 不審な連絡を報告しても責められない心理的安全性を確保

日本ではどうなるか

日本はAIフィッシング・ディープフェイク詐欺の「標的市場」として特に注目されています。その理由は複数あります。

言語障壁の消失: 以前は日本語の不自然さがフィッシングの「フィルター」として機能していましたが、LLMの日本語能力向上により、ネイティブと見分けがつかないフィッシングメールが生成可能になりました。

権威への従順性: 日本の企業文化では上司の指示に疑問を挟みにくい傾向があり、CEOの声で電話がかかってきた場合に「本人確認をさせてください」と言いにくい風土が攻撃者に利用されています。

ハンコ文化からの移行期: 電子承認への移行期にある企業では、承認プロセスが混在しており、攻撃者がその隙間を突きやすい状況です。

警察庁の対応: 2026年1月に「AI悪用犯罪対策室」を新設。ディープフェイク検知技術の開発と、企業への注意喚起を強化しています。ただし、被害届の提出率は推定10%未満と低く、実態把握が課題です。

金融庁のガイドライン: 2026年度中に「AI悪用詐欺対策ガイドライン」を策定予定。金融機関に対してディープフェイク検知技術の導入を推奨する方針です。

まとめ:今すぐ取るべき3つのアクション

AIフィッシングとディープフェイク音声詐欺は、もはや「高度な攻撃」ではなく「日常的なリスク」です。

  1. 認証基盤を強化する: 1Passwordで全社のパスワード管理を統一し、パスキー/FIDO2ベースの多要素認証を全アカウントに適用する。SMSベースのMFAは即座に廃止する
  2. 送金・承認プロセスを見直す: 電話やメールだけで高額送金を承認できるプロセスがないか総点検。必ず複数チャネルでの確認を必須にし、合言葉やコールバック認証を導入する
  3. AI時代のセキュリティ訓練を実施する: 従来のフィッシング訓練にAI生成メールとディープフェイク音声のシナリオを追加。「声を聞いても信じるな」を組織文化として定着させる

「本物に聞こえる」はもはや「本物である」の証明にはなりません。テクノロジーで検証し、プロセスで防衛する体制を今すぐ構築してください。

この記事をシェア