サイバー脅威・対策
ディープフェイク
約 4 分で読めます
最終更新: 2026-03-22
ディープフェイクとは
ディープフェイクとは、深層学習 (ディープラーニング) を用いて人物の顔や声を精巧に合成・置換する技術、およびその生成物を指します。GAN (敵対的生成ネットワーク) や拡散モデルなどの生成 AI 技術の急速な進歩により、専門知識がなくても高品質な偽造メディアを作成できる環境が整いつつあります。
元々は映画の視覚効果や学術研究の文脈で発展した技術ですが、現在ではソーシャルエンジニアリングやフィッシングの高度化に悪用されるケースが深刻な問題となっています。CEO の声を模倣した電話で送金を指示する「ボイスフィッシング」や、実在の人物になりすました動画で信頼を獲得する手口が報告されています。
悪用の手口と被害パターン
ディープフェイクを利用した攻撃は、従来のソーシャルエンジニアリングの説得力を飛躍的に高めます。主な悪用パターンは以下のとおりです。
- ビジネスメール詐欺の進化: 経営者の声をリアルタイムで合成し、電話越しに緊急送金を指示する。2019 年にはイギリスのエネルギー企業が CEO の声を模倣した電話で約 24 万ドルを詐取された事例がある
- 本人確認の突破: 金融機関のビデオ通話による本人確認 (eKYC) を、リアルタイムの顔合成で突破する試み
- デジタル ID 窃盗への応用: SNS の写真や動画から顔データを収集し、なりすましアカウントを作成する
- 偽情報キャンペーン: 政治家や著名人の偽動画を拡散し、世論操作や株価操作を行う
音声のディープフェイクは数秒の音声サンプルから生成可能であり、映像よりも低コストかつ検出が困難なため、電話を使った詐欺で特に警戒が必要です。
検出技術と見破るポイント
ディープフェイクの検出は、生成技術の進歩とのいたちごっこですが、現時点で有効なアプローチがいくつか存在します。
技術的な検出手法
- 生体信号の分析: 本物の映像に含まれる微細な脈拍の変動 (rPPG) や瞬きのパターンを検出する。合成映像ではこれらの生体信号が欠落または不自然になる
- 周波数領域の解析: GAN が生成した画像には、空間周波数スペクトルに特有のアーティファクトが残る。フーリエ変換で分析すると人間の目では見えない痕跡を検出できる
- 電子透かしと来歴追跡: C2PA (Coalition for Content Provenance and Authenticity) などの規格により、コンテンツの生成・編集履歴をメタデータとして埋め込む取り組みが進んでいる
人間が見破るためのチェックポイント
- 顔の輪郭と背景の境界にぼやけや不自然な歪みがないか
- 瞬きの頻度が極端に少なくないか (初期の合成映像に多い欠陥)
- 口の動きと音声のタイミングにずれがないか
- 照明の方向と影の整合性が取れているか
- 耳や歯など、細部の描写が不自然でないか
個人と組織が取るべき防御策
ディープフェイクの脅威に対しては、技術的対策と運用面の対策を組み合わせることが重要です。
個人の対策
- SNS での顔写真・動画の公開範囲を制限する: 公開されている顔データが多いほど、高品質なディープフェイクを生成されるリスクが高まる
- 不審な連絡の検証: 経営者や家族を名乗る緊急の電話・ビデオ通話を受けた場合、別の連絡手段で本人に確認する
- 二要素認証の徹底: なりすましによるアカウント乗っ取りを防ぐ最後の砦となる
組織の対策
- 送金・機密情報の取り扱いに多段階承認を導入する: 電話やビデオ通話だけで高額送金を承認しない運用ルールを徹底する
- 従業員教育: ディープフェイクの存在と手口を周知し、「見たものをそのまま信じない」意識を醸成する
- コンテンツ認証技術の導入: C2PA 対応のツールやプラットフォームを活用し、社内外のメディアの真正性を検証できる体制を整える
データ漏洩で流出した個人情報とディープフェイクを組み合わせた攻撃は、従来のフィッシングよりも格段に説得力が高いため、複合的な防御策が不可欠です。
よくある誤解
- ディープフェイクは専門家でなければ作れない
- オープンソースのツールやクラウドサービスの普及により、技術的な専門知識がなくても数分で顔の入れ替えや音声の合成が可能になっている。スマートフォンアプリでも簡易的なディープフェイクを生成できる時代である。
- 動画を注意深く見れば必ず見破れる
- 最新の生成モデルが作るディープフェイクは、人間の目視では判別困難なレベルに達している。特に低解像度の映像や短い音声クリップでは、専門家でも正確な判定が難しい場合がある。技術的な検出ツールとの併用が必要。