第581号コラム:湯淺 墾道 理事(情報セキュリティ大学院大学 学長補佐 情報セキュリティ研究科 教授)
題:「ディープフェイクのフォレンジック」

近年、フェイクニュース対策がサイバーセキュリティの大きな課題となりつつあるが、人工知能がフェイクニュースの生成、発信、流布に利用されるようになっている。フェイク技術は年々高度化しており、虚偽の情報を文字情報として送信するだけではなく、画像、音声、動画像、音声つき動画像も生成されるようになってきた。人工知能は、それに一役も二役も買っている。人工知能のディープラーニング技術を利用して虚偽・合成の動画像などを作成すること(または作成されたもの)をディープフェイクといい、有名人や児童の顔を利用したディープフェイクによるポルノも含めて、早急な対策が求められている。

一般に、フェイクニュースの内容を検証してそれが真実であるかどうかを検証する組織をファクトチェック機関と呼んでいるが、それらのファクトチェック機関の多くは、フェイクニュースによって報じられた内容の真正を検証するものであって、発信者が誰でどのような組織の支援の下に行われているのかを調査したり、発信されている文字情報、画像、音声、動画像、音声つき動画像が加工されていないかどうかを調べたりすることには必ずしも主眼を置いていないようである。画像、音声、動画像、音声つき動画像が意図的に加工されていないかどうかの検証にあたっては、デジタル・フォレンジック技術への期待が高まっている。

アメリカでは近年、メディア上にあふれるさまざまな情報の真偽について、デジタル・フォレンジック技術を利用して検証することを「メディア・フォレンジックス(Media Forensics = MediFor)」と呼ぶようになってきた。

国防総省の研究機関である国防高等研究計画局(DARPA = Defense Advanced Research Projects Agency)は、2015年にメディア・フォレンジック研究プロジェクトを開始している。DARPAのメディア・フォレンジック研究プロジェクトは、動画像及び静止画像に加工が加えられていることの検出を主な対象としており、パーデュー大学を拠点とする民間の研究者チームに対して研究費を交付して研究開発を行っている。研究内容の一部は、Youtube上でも公開されている。最終的には、加工の有無、加工履歴、加工箇所などを自動的に検出するツールの作成を目指しているようである。

【Youtube】Detecting Deep Fakes Video through Media Forensics

ところで、DARPAといえば、今日のインターネットの基礎となっているARPANET(DARPANET)の生みの親としても有名であろう。そのDAPRAがディープフェイクへの対策に乗り出さざるを得なくなったところに、ディープフェイク問題の深刻さがある。

そして、インターネット関連技術では、軍用の技術が民生用に転用されるようになったもの、当初から軍民の境なく利用される可能性を念頭として開発されるものが少なくないが、ディープフェイク対策もまたデュアルユース技術として研究開発されつつあることには、なにか因縁めいたものを感じずにはいられない。日本では、防衛省による安全保障技術研究推進制度が批判されることが少なくないが、アメリカにはこのようなデュアルユース技術の研究開発事例があることは看過されるべきではないだろう。

【著作権は、湯淺氏に属します】