テイラー・スウィフトだけじゃない...多くの女性が標的となっているディープフェイクの「欲望の闇」
The Deepfake Porn Problem
スウィフトの被害にファンが抗議するなど、オンライン空間での互助精神や規制を求める動きも生まれている JAMES DEVANEYーGC IMAGES/GETTY IMAGES (SWIFT), UNDEFINED UNDEFINED/ISTOCK
<人気歌手テイラー・スウィフトの偽ヌードが拡散。この騒動が浮き彫りにした、一般女性も狙われる問題の現状と対策を専門家に聞く>
超大物ポップ歌手、テイラー・スウィフトの「ポルノ画像」が拡散する事件が起きた。だがこれは、本人の同意なしにAI(人工知能)で生成された偽物だった。1月24日にX(旧ツイッター)に投稿された画像は、削除されるまでの十数時間に閲覧数が約4500万件に達した。
近年、AIのディープラーニング技術を利用したフェイク画像・動画が、ディープフェイクという名前で知られるようになっている。多くの場合、標的になるのは女性のセレブだが、AIの進化とともに一般人(ほぼ常に女性だ)も狙われやすくなる一方だ。
独立系研究者のジュヌビーブ・オーの推定によれば、昨年作成されたディープフェイクポルノ動画は計14万3000件以上で、一昨年までの総数を上回った。その数は今後、確実に増え続けるだろう。
性的イメージの偽造には、どんな歴史があるのか。有名人と一般の女性の双方が、どのような形で被害を受けているのか。ペンシルベニア大学の研究者で、リベンジポルノなどの画像ベースの性的虐待やオンライン性暴力に詳しいソフィー・マドックスに、ジャーナリストのスコット・ノバーが話を聞いた。
──「偽ヌード」は目新しい現象ではないのでは?
その起源については、歴史学者のジェシカ・レイクが興味深い研究をしている。写真が普及した19世紀後半には、上流社会の女性の顔写真を、裸体の顔の部分にはめ込んだ写真が流通していたという。
偽ヌードが初めてオンラインで拡散したのは2017年だ。ポルノ映画の出演者の顔を、デジタル処理で別の人物の顔に置き換えるアプリ「ディープヌード」が登場したのがきっかけだった。
これは、19世紀に写真を使って行ったこととほとんど同じだ。偽物の裸体、それも女性の偽ヌードを作り出したいという欲望は大昔から存在するのではないか。
インターネットは、以前よりずっと現実味のある画像を作成・拡散する方法を生み出している。今では、動画・画像生成モデルで非常にリアルなものができる。AIツールは、本人の承諾なしにネット上でかき集めた少女や女性の画像から学習している。テキストプロンプトでも、既存のイメージからでも、本物そっくりの偽ヌードを作り出せる。
──AIによって、問題の規模と深刻度が増している?
そのとおり。ディープフェイクの最初の被害者になった俳優や歌手、活動家が警鐘を鳴らし始めたのは17年だ。児童ポルノの作成に使われ、有名人だけでなく、一般の女性が多大な身体的・心理的打撃を受ける日が来ると、彼らは懸念していた。憂慮すべきことに、特に1年ほど前から、その懸念どおりになっている。
オンラインのAI生成ヌード画像数は昨年の7カ月間で10倍に増えた。派生形の被害も生まれている。一例が、少年に対する恐喝だ。彼らのヌード画像を作成して、拡散すると脅迫する。一方、いわゆるリベンジポルノの被害を受ける少女の比率は、既に圧倒的なまでに高い。