ウクライナ国防省、顔認識AIを導入 ロシア工作員の発見に利用か
しかし、ニューヨーク・タイムズ紙が『私たちが知っている形のプライバシーを終えんに導くかもしれない秘密主義の企業』として2020年に報じると、同社は批判的な報道と法廷闘争の渦に巻き込まれた。
同社のスマホアプリでは、捜査機関のみならず一般ユーザーでも顔写真の検索が可能であった。Appleは規約違反だとしてアプリの公開を停止している。米イリノイ州では、利用者の許諾を得ない写真収集に関する集団訴訟が勃発した。
カナダ、スウェーデン、フランス、イタリアなどのプライバシー保護当局は収集活動を違法と判断し、データ削除とソフトの提供中止などを命じた。同社は一般ユーザーへの提供を停止ししたものの、各国の捜査機関などを対象に引き続き技術を提供している。
ウクライナでの用途について米インサイダー誌は、ロシアにおける監視技術の利用法と対比し、比較的問題が少ない形ではないかと論じている。ロシアでは反戦を訴える人々を監視カメラで確認し連行するなど、「より非道な用途で利用されている」と同誌は指摘する。
ロシア側にAIの弱点をつかれる可能性
このほか技術的な論点として、外部からの攻撃に対して脆いとの指摘もある。これによりロシア側に反撃の隙を与えかねない。
画像認識AIは一般に、悪意のあるデータの混入に対して無防備だ。機械学習による画像認識の隙をつき、画像の細部を人間の目では気づかない程度に改変することで、判断の拠り所となる「特徴量」を大幅に狂わせることができる。
このような画像は「敵対的サンプル」と呼ばれる。例えば現実世界においても、道路標識にごく小さなステッカーを貼ることで自動運転車を誤作動させるなどの攻撃が脅威となってきている。
敵対的サンプルを生成すれば、ある顔写真を一見してまったく同じ見た目に保ちながら、AIに対してはあたかも別人のように誤認させることも可能だ。とくにClearview AIは一般に公開されているソーシャルメディアを情報源としていることから、ロシアの工作員を含めた誰もが、敵対的サンプルを容易にデータベース内に紛れ込ませることができる。
さらには、意図的な妨害工作がなくとも、誤検出はわずかな確率で起こり得る。ニューヨークで監視技術監督プロジェクトを推進するアルバート・フォックス・チャン氏はロイターに対し、「善意のはずだった技術が誤動作し、まさにその技術によって守られるはずの人々に危害が加わることになるでしょう」と警告を発している。
先端技術をめぐっては、すでに展開中のスターリンク衛星通信の使用に関しても、電波発信中の地点がロシアの標的とされる危険性が指摘されている。サイバー空間との同時展開が特徴的なウクライナ侵攻では、今後も新興技術をめぐり、前例のない攻防が繰り広げられる可能性がありそうだ。