2023年発表の本書は、東工大笹原和俊准教授(計算社会科学)のディープフェイク(DF)論。筆者はDFを「ハリウッド級のメディア合成技術が民主化されたもの」と説明する。従来高度な技術・多くの時間・多額の費用を要した偽画像/映像/音声が、インターネット上のAI関連サービスで、誰にでも作れるようになった。加えてSNSによる段違いの拡散力があり、社会的影響力が急増している。
本来、教育効果の向上や障がい者の社会参画などに活用すべきものだが、最初に広がったのはポルノ用途。有名女優の顔をすげかえるなどしたDFが蔓延した。降伏を呼び掛けるゼレンスキー大統領や、暴言を吐くオバマ元大統領など、政治的DFも登場した。
すでに「百聞は一見にしかず」など過去の言い伝えになってしまったが、DFを抑えたり見抜く技術もある。撮影時に電子透かしやメタデータを入れ込み編集履歴を加えて、これらを改ざんできないようにする方法や、DFの特徴を学習した(これもAI)ツールなどである。ただこれを凌駕する新DF手法もでてくるので、いたちごっこではある。
個人でも、背景がゆがんでいる、体毛の生え方や歯並びがおかしいなど、じっくり観察すると見抜けるものもある。意外なことに、意識的には見抜けないDFも、無意識だと脳自身が疑っている兆候(*1)も見られるという。「直感は過たない」のかもしれない。
DFの社会的弊害として、真実のような偽物が溢れることと、都合の悪い真実が偽物扱いされることがある。プラットフォーム事業者はDFを除く努力として、
1)ユーザの注意を正確性に引き戻す「Accuracy Prompts」
2)オンラインでの過激化を阻止する「Redirect Method」
3)健全な対話を促進する「Authorship Feedback」
4)操作に対する抵抗性を向上させる「Prebunking」
をしている(*2)。現代はデータ社会だが、データには3つの問題(偏り・著作権・汚染)があって、不確かなデータの蔓延が社会の不振を産み、グローバルな社会問題化している(根源だ)と筆者は言う。
DFは使い方次第で、現実を破壊する剣にも、現実を創造するペンにもなる。技術的な解説も含めて、ためになる参考書でした。
*1:脳波を検知した実験結果による