ディープフェイクを悪用し、存在しない人物がリモート面接を突破している FBIが警告
企業の内部データを抜き取る目的で求職者を装い、内部への侵入を企てていた可能性がある...... insta_photos- iStock
<画面越しに話しているその人物は、本当に存在するのだろうか? アメリカでは、AIが演じる架空の人間が面接に現れるようになった>
リモートワークによって柔軟な働き方が可能となった一方で、身元の知れない人物を社内に迎えるリスクもあるようだ。面接官が画面越しにリモート面接をしている相手が、存在しない架空の人間だったというケースが複数報告されている。
FBIは6月28日付の公共メッセージを通じ、「リモートワーク職への応募に、ディープフェイク(ディープラーニング技術を用いて画像・動画を作成する技術)および他人の個人情報が利用されている」と警告した。悪意ある何者かが正体を隠し、不正に社内に潜り込もうとしている模様だ。
ディープフェイクが使用される目的について、FBIは現時点で断定していない。ただし、ターゲットとなった職種は、「顧客の個人情報、財務データ、社内データベース、知財情報」などにアクセス可能なものが多いようだ。そのため、企業の内部データを抜き取る目的で求職者を装い、内部への侵入を企てていた可能性がある。
The #FBI has noticed an increase in complaints about the use of deepfakes and stolen personally identifiable information to apply for a variety of remote work positions. Check out our Public Service Announcement at https://t.co/DE88T7QxXI to learn more. #ReportTheCompromise pic.twitter.com/oTtVx4K4f6
— FBI (@FBI) June 28, 2022
「見分けることはほぼ不可能」 リアルなフェイク映像、中国・ロシアが多用
ディープフェイクとは、AIを用いて架空の画像や映像を作りあげたり、動画を別の人物に置き換えたりする手法だ。近年では仕上がりの精度が向上し、非常にリアルなものが増えている。米フォーブス誌は、「人々の顔と声を正確に模倣しており、本物と見分けることはほぼ不可能」だと指摘している。
ただ、応募者がくしゃみをするなど不意のアクションを取ったタイミングで、画像と音声に矛盾が生じることがあるという。こうしたきっかけで面接官が違和感に気づき、FBIに報告が寄せられるようになった。
FBIのサイバー部門は3月、「悪意ある人物らが今後ほぼ間違いなく、合成コンテンツをサイバー空間および対外国の活動で利用するだろう」と発表し、警戒を促していた。ディープフェイクを用いた工作は、「ロシア人、中国人、中国語話者」によるものが多く確認されているという。
他人の個人情報の乗っ取りも 身辺調査をかわすねらいか
自分自身の映像ではなくディープフェイクで合成した人物の映像で面接を受けていた理由については、2つの効果をねらったと推測される。1つ目は捜査当局による追求の回避だ。データの持ち去りが発覚した際、本名と正規の容姿を公開していた場合、当然ながら捜査の手が及びやすくなる。
2つ目は身辺調査の回避だ。FBIに寄せられた複数の被害報告によると、応募者は単に存在しない人物をねつ造するだけでなく、既存の無関係の人物になりすましているケースも多数確認されている。犯罪歴をもった人物が、身辺調査をされれば不採用となるであろうことを認識したうえで、経歴に傷のない赤の他人のプロフィールを流用して企業に接近していると考えられる。