- HOME
- コラム
- デジタル権威主義とネット世論操作
- 犯人を予測する予測捜査システムの導入が進む日米 そ…
犯人を予測する予測捜査システムの導入が進む日米 その実態と問題とは
●Predpol社
Predpol社の創業者は犯罪予測に関する数学的モデルを構築し、ロサンゼルス市警と実証実験を開始した。その結果、21カ月の間で正確な予測で大幅な犯罪抑止効果が出た(NBC News、2017年10月6日)。
2012年からロサンゼルス市警は正式に利用を開始し、それ以降、同社のシステムはアメリカの警察でもっともよく使われる予測捜査ツールとなった。警察官は同社のシステムが提示する警戒区域をパトロールし、犯罪抑止に努めるようになった。
2014年までは成果が出ていたが、その後、再び犯罪は他の地域同様に増加して始めた(The Washington Post、2016年11月16日)。
詳しくは後述するが、同時に有用性および差別や偏見を助長している、といった指摘が相次ぎ、Predpol社はもっとも問題を指摘される予測捜査ツール提供企業となった。
そして2020年4月にロサンゼルス市警はコロナによる財政悪化を理由に同社システムの利用を停止した。表向きは経費削減だが、実際には多くの批判を受けて止めざるを得なかったという声もある(BuzzFeed New、2020年4月21日)。黒人人権運動がアメリカ全土に広がっている状況で使い続けるのは難しかったのかもしれない。
予測捜査ツールの問題点
予測捜査ツールの問題点は多々指摘されている。個別のシステムに特有なものもあるが、共通するものも多い。そもそも本当に効果があるのか? という疑問の声も少なくない。2016年、シカゴ市警が予測捜査を開始した際、ランド研究所はその内容を精査し、効果は確認できなかったと結論している(The Verge、2016年8月19日)。
前述のPredpol社は、多くの専門家から問題点を指摘されている。そもそもモデルに問題があるという根本的なものから、技術上の問題、運用上の問題などさまざまだ。2019年10月8日には450人の学術関係者が連盟で同社に問題点を指摘する手紙を送り、それをネットで(公開した)。Predpol社に対する批判の多くは地域に焦点を当てるアプローチを取る他社のツールについても言える。
同社のモデルの根本的な問題は VICEに掲載された記事で解説されている。
アメリカでは「割れ窓理論」(割れた窓を放置しておくと安全に無関心な地域と認識されて治安が悪化する)を参考に、軽微な犯罪も見逃さないようにしている警察が多い。そのため警官が多く巡回、配備されている地区では犯罪検挙が多くなる。予測捜査で犯罪発生が予測された地区に多くの警官が配備されると、当然そこでの犯罪検挙は増加する。増加したことにより、予測捜査ツールはさらに警戒を要請し、さらに検挙は増えるというフィードバック・ループが形成される。そして特定の地域に多数配備されるということは、他の地域への配備が減少し検挙が減少し、さらにフィードバック・ループが強化される。同記事ではPredpol社固有のアルゴリズムの問題にも踏み込んでいる。
その他にも共通した問題はある。主なものを挙げると次のようになる。
●利用しているデータには多くの場合、有罪率が含まれていない。逮捕、認知、検挙と有罪は別である。逮捕、認知、検挙のみをデータとして利用することには問題がある(MIT technology Review、2020年7月17日)。これに限らず警察の保有しているデータはAIの機械学習には不完全であり、客観的、中立的とは言えない。
●「割れ窓理論」を採用している警察ではフィードバック・ループが形成される(前述)。
●偏見や差別にもとづいて特定のグループを監視している警察では、その監視対象についてのデータが多く、それを元に予測捜査ツールが出す予測は特定のグループの犯罪可能性を高く評価してしまう。たとえばニューヨーク市警には反戦活動家などの活動家や左派活動家そしてムスリムを特別なチームを作って監視していた(The Intercept、2017年7月7日)。日本でも活動家やムスリムなど特定のグループに対する監視が行われている。
草の根運動である「Data for Black Lives」は4千人のエンジニアのハブとなってデータやツールに潜む差別を調査している。言葉を換えて言うと、予測捜査ツールが予測しているのは犯罪そのものではなく、「警察官が犯罪が起きそう/起こしそう、と考える地域や人物を予測」しているということだ。元のデータが公正中立ではなく、警察の偏ったデータによるものである以上、こうなるのは当然と言えるかもしれない。
●導入前も導入後も予測捜査ツールを監査、確認する方法が確立されていない。これは根本的な問題であり、正しいことを確認できないツールを法執行機関が使い続けることの是非が問われている(MIT technology Review、2020年7月17日)。
●深刻なプライバシー侵害や倫理的問題が指摘されている。予測捜査に用いているデータには捜査記録や聞き取りカードも含まれることもあり、これらが民間組織のデータベースに登録されて利用されることはプライバシー侵害の危険性を伴い、用いられている方法は一般的な人類学の倫理基準から逸脱し、予測捜査対象グループに悪影響を与える可能性もあることが指摘されている。
たとえばPalantir社はニューオリンズ州の住民の訴訟記録、免許証、住所、電話番号、社会保障番号、捜査記録などにアクセスが許されていた(THE VERGE、2020年2月27日)。同社には公的機関を中心に100を超えるクライアントがある。これらの機関のデータを同社が統合的、横断的に利用している可能性も否定できない。前回の記事でClearviewAI社が顔認証データベースを操作して、取材記者のIDが検索結果に表示されないよう設定していたことは述べた。予測される犯罪者と被害者を隠すことも、逆に本来対象でない人物を潜在的犯罪者あるいは被害者にすることも可能だし、特定の市民団体や企業を捜査対象にすることもできる。
●適切な運用が行われていない。主としてツールの利用方法の説明が不十分で、現場の警察官の理解していないことに起因する。たとえば多くの予測捜査ツールは、「将来の犯罪被害者リスト」も予測するのだが、警察官が充分に理解していないため「将来の容疑者リスト」として扱っていた。
ほとんどの予測捜査の元データは数年の範囲に留まるため(一部長いものもある)、中長期的な効果を狙うものではない。短期的な対処療法として過去に犯罪に関係していた人物や犯罪多発地帯に注目するだけなら高度な監視やAIは不要だ。
ニューヨーク市の鉄道警察警部補だったジャック・メイプルは色つきのピンでニューヨーク市の犯罪をマッピングし、1990年から1992年の間に重犯罪を27%、強盗を三分の一減少させた。声高に成果を誇る予測捜査システムはメイプルがやったこととたいして変わらないのだ(IBM)。そして短期的な対症療法として用いるには偏見と差別の助長や権利侵害のリスクが大きい。
こうした批判を受けて、予測捜査を禁止する動きも出て来ている。カリフォルニア州サンタクルーズ市は予測捜査の禁止した(ロイター、2020年6月17日)。同市には予測捜査ツール大手Predpol社の本社があるが、同社はコメントを拒否した。また、ニューヨーク市では警察が利用している監視技術をリストアップし、市民に説明することを義務づける「POST ACT」が成立した。
私見だが、民主主義的価値観を共有する社会では、犯罪抑止は犯罪行為そのものをなくすことよりも、偏りのある捜査方法の見直しや教育や福祉によって犯罪の動機をなくすことを優先すべきだろう。
捜査方法の見直しや教育や福祉が犯罪抑止効果を現すまでには数年では足りない。もちろん、どれほど教育や福祉を充実しても犯罪は起こりうる。だから「事後」の捜査は必要だ。しかし「事前」に犯罪発生の可能性を予知できるなら、教育と福祉で予防できる余地があることを意味しているように思う。それは警察の範疇ではないかもしれないが、社会として取り組むべきことだろう。
中国が仕掛ける「沖縄と台湾をめぐる認知戦」流布される5つの言説 2024.10.30
SNSで燃え上がる【偽・誤情報の拡散】...カギとなる対抗する力とは? 2024.09.18
英暴動は他人事ではない......偽・誤情報の「不都合な真実」 2024.08.16
中国が台湾併合する非軍事シナリオを米シンクタンクが公開......日本が核武装? 2024.06.12
見直しが始まった誤・偽情報対策 ほとんどの対策は逆効果だった? 2024.05.08
検索結果をプロパガンダと陰謀論だらけにするデータボイド(データの空白)脆弱性 2024.04.08
2024年、SNSプラットフォームが選挙を通じて世界を変える 2024.03.15