その声、本当に”本人“ですか? —問われる生成AI時代の「信頼」

RSS

2025年06月19日

  • デジタルソリューション研究開発部 シニアセキュリティ・スペシャリスト 山野 葉子

2025年6月、OpenAIは「Disrupting Malicious Uses of AI(AIの悪用を妨害する)」と題したレポートを発表した。国家主導の情報操作や詐欺、サイバー攻撃など、AIが悪用された10件の事例を分析し、GoogleやAnthropicと連携して対策に乗り出している。注目すべきは、これらの攻撃が高度な技術だけでなく、「人間の信頼」を逆手に取る手法である点だ。

この傾向は日本でも顕著に見られる。2025年春、地方銀行を装ったAI音声によるボイスフィッシングが全国で多発した。自動音声が実在の銀行名やコールセンターを名乗り、企業の経理担当者に送金を促す手口で、億単位の被害が報告されている。さらに、社長の声をAIで模倣し、幹部に送金を指示する「ディープフェイク音声詐欺」も確認されている。これらは、AIの進化により私たちが直感的に「本人確認」の手段としてきた「声」の信頼性が揺らぎつつあることを示している。

これまで日本は、日本語という言語の特性により、海外からのサイバー攻撃に対して一定の防波堤が築かれてきた側面がある。しかし、AIの進化により、言語の壁は急速に低くなっている。今後は、民間企業・行政・教育機関が連携し、AIリテラシーとセキュリティ意識の底上げを図る必要がある。また、AI開発企業には、モデルの透明性や悪用防止策の開示といった説明責任が強く求められる。

こうした中、政府でも議論が始まっている。2025年5月には「人工知能関連技術の研究開発及び活用の推進に関する法律(AI新法)」が成立した。この法律は、イノベーションの促進とリスク対応を両立させるものとされ、リスク対応においては、AIの犯罪への悪用や権利侵害といった事案について国が調査し、事業者に指導や助言を行う権限を定めている。また、著しい権利侵害が発生した場合や、指導しても改善が見られない場合には事業者名を公表するとしている。さらに、年内には「AIを開発・活用する者が遵守すべき指針」の策定の方針が示されており、社会全体でAIの信頼性をどう担保するかが問われている。

AIの進化は止められないが、その悪用を防ぐ努力は可能だ。企業による技術的な対策、法整備や企業内のガイドラインの策定など、組織的・制度的対策に加え、「疑う力」を育成する教育・啓発的な対応も欠かせない。OpenAIのレポートではSNSを利用した情報操作が極めて組織的に行われていることも指摘されている。複数のアカウントで発信されている情報であっても、それらすべてが操作されたものである可能性があることに留意するべきだ。

企業、そして私たち個人を守るために、セキュリティ専門人材の育成や個人での情報収集や対策も不可欠である。しかしそれだけでは不十分だ。従来の「信頼」のあり方が揺らぐ今、何をもって「本物」とするか、「信頼」とは何かを社会全体で再考する時期に来ているのではないだろうか。

このコンテンツの著作権は、株式会社大和総研に帰属します。著作権法上、転載、翻案、翻訳、要約等は、大和総研の許諾が必要です。大和総研の許諾がない転載、翻案、翻訳、要約、および法令に従わない引用等は、違法行為です。著作権侵害等の行為には、法的手続きを行うこともあります。また、掲載されている執筆者の所属・肩書きは現時点のものとなります。

山野 葉子
執筆者紹介

デジタルソリューション研究開発部

シニアセキュリティ・スペシャリスト 山野 葉子