ディープフェイク

 ディープフェイクとは、AIを用いて動画や音声を合成する技術のことです。近年、AI(人工知能)技術の進歩により、ディープフェイクの脅威が増しています。トレンドマイクロが2022年12月に公開した「2023年セキュリティ脅威予測(*1)」では、ディープフェイクが主要なトピックの一つとしてあげられており、今後、ディープフェイクを用いた巧妙化した犯罪が増えてくることが予測されています。
 本記事では、ディープフェイクの定義と脅威、対策について解説します。

ディープフェイクとは

 ディープフェイクとは、「ディープラーニング」と「フェイク(にせもの)」を組み合わせた造語で、AIを用いて、動画や音声を合成する技術のことです。ディープフェイクによって、実際には行っていない行動をしたり、言っていないことを発言したりしているかのような動画(いわゆるフェイク動画)を作成することができます。

 ディープフェイクで使用される代表的な技術としてGAN(Generative Adversarial Network:敵対的生成ネットワーク)と呼ばれる生成モデルがあります。GANは生成器(Generator)と識別器(Discriminator)から構成されています。生成器は画像を作り出し、識別器は画像が本物か偽物か判定します。この2つのモデルが競い合うことで、本物に近い画像を作り出します。

図:GANのイメージ

出所:大和総研作成

ディープフェイクの脅威

 ディープフェイクを用いてフェイク動画を作成するには一定のスキルが必要でしたが、近年、パソコンやスマートフォンで簡単にフェイク動画を作成できるサービスが登場しています。このため、誰でもフェイク動画を作成できるようになり、ディープフェイクを悪用した犯罪が増加しています。たとえば、以下のような事例があります。

なりすましによる情報操作

 政治家になりすまして虚偽情報を発信し、情報操作が行われます。最近では、ウクライナのゼレンスキー大統領が市民に投降を呼びかける動画(*2)やアメリカのトランプ前大統領が逮捕される写真(*3)がSNS上で公開され話題となりました。

なりすましによる金銭要求

 知人になりすまして電話やビデオ通話で金銭を要求します。ディープフェイクボイス攻撃とも呼ばれ、実際に事件も発生しています(*4) (*5)。ディーフェイクボイス攻撃はビジネスメール詐欺と組み合わせることで手口が巧妙化する恐れがあります。攻撃者は経営者や取引先になりすましてメールを送信後、さらにディープフェイクを使って本人の声を真似て電話をかけ金銭を要求する可能性があります。

他人になりすまし顔認証を突破

 他人の身分証明書と他人の顔になりすました動画を使って本人確認を突破します。2021年6月に株式会社日立製鉄所が発表した論文(*6)では、顔認証システムを用いて本人確認を実施した結果、同一人物であると判定されました。これにより、不正な口座開設などが可能だと判明しました。

ディープフェイク対策

 フェイク動画や画像の完成度は高まっており、人間の目で判断することが難しくなっています。このような不確かな情報に騙されないために以下のような対策があります。

複数手段で確認

 情報源の確認やファクトチェックを実施するメディアを活用し、情報が本物か見分けます。また、経営者や取引先と電話をする場合も詐欺の可能性を疑い、振込先の変更など重要な連絡に対しては複数の手段で確認することが必要です。

ディープフェイク検出ツール

 ツールを用いてディープフェイクで作成されたフェイク動画や画像を検出します。AIによって人間の目ではわかりづらい色の違いや血流などの特徴を評価することで、フェイク動画や画像を検出することができます。

来歴を記録する規格「C2PA」

 C2PAは、Coalition for Content Provenance and Authenticity(略称C2PA、コンテンツの来歴と真正性のための連合)が定めた技術規格です。画像に作成者や編集履歴などの情報を画像のメタデータとして保存することで改ざんを防ぐことができます。メタデータも公開鍵暗号基盤を使用した暗号化により保護されています。C2PAはディープフェイク検出ツールのように偽物を検出するためではなく、本物であることを保証するために利用します。

おわりに

 AIの技術は急速に発展しており今後もディープフェイクを悪用した犯罪が増加することが予想されます。特に企業が注意すべきは、上記で紹介したビジネスメール詐欺の巧妙化です。ChatGPTなどの生成AIの登場により、経営者などになりすましたメールを誰でも作成できるようなりました。さらにディープフェイクを用いたなりすまし電話との組み合わせによりビジネスメール詐欺の被害が拡大する恐れがあります。企業は従業員の情報リテラシーを高めるとともに、金銭の要求があった場合は、複数の方法で確認できる体制を整備しておくことが大切です。

参考文献

(*1) トレンドマイクロ 2022年12月26日「トレンドマイクロ、2023年セキュリティ脅威予測を公開」
https://www.trendmicro.com/ja_jp/about/press-release/2022/pr-20221226-01.html
(*2) sky news 2022年3月17日「Ukraine war: Deepfake video of Zelenskyy telling Ukrainians to 'lay down arms' debunked」
 https://news.sky.com/story/ukraine-war-deepfake-video-of-zelenskyy-telling-ukrainians-to-lay-down-arms-debunked-12567789
(*3)NEW YORK POST 2023年3月22日「Eerie deepfakes claiming to show Trump’s arrest spread across Twitter」
https://nypost.com/2023/03/22/chilling-deepfakes-claiming-to-show-trumps-arrest-spread-across-twitter/
(*4)36Kr Japan 2023年5月30日「AIがビデオ通話で「友達」になりすまし。会社社長が8500万円の振り込め詐欺被害:中国」
https://36kr.jp/234282/
(*5)ZENET Japan 2019年9月5日「CEOになりすましたディープフェイクの音声で約2600万円の詐欺被害か」
https://japan.zdnet.com/article/35142255/
(*6) 川名のん 他 株式会社日立製作所 研究開発グループ 2021年「Deepfakeを用いたe-KYCに対するなりすまし攻撃と対策の検討」
https://www.jstage.jst.go.jp/article/pjsai/JSAI2021/0/JSAI2021_1F2GS10a02/_pdf

パブリシティ

サイバーセキュリティの最新動向をタイムリーに発信~DIR SOC Quarterly~
DIR SOC Quarterly vol.5 2023 summer