AIが性差別・人種差別をするのはなぜか? どう防ぐか?
Kirill Makarov-Shutterstock
<公開データを学習したAIは古い固定観念や偏見も一緒に吸収する。この課題をいかに克服すべきか>
人工知能(AI)は人類の文明にとって根本的な脅威になる――米起業家イーロン・マスクはそう警告した。だが問題はAIが賢くなり過ぎることではない。むしろ愚か過ぎることだ。
意思決定を自動化するAIのソフトウエアは、判事が裁判の量刑を決める参考にも、病院の治療計画の作成にも使われている。スマートフォンに「薬局」と入力するだけで、お気に入りの薬局の住所をグーグルが地図に表示してくれるのもAIのおかげだ。AP通信はマイナーリーグのスポーツ記事をAIに書かせている。
ただし、AIが幅広く使われるようになったからといって、技術的に完成に近づいたとは限らない。AIが偏見や差別まみれの不公正な判断を下す例は山ほどある。16年、ある高校生がグーグルで「3人の黒人の若者」を検索したところ、逮捕時の容疑者の顔写真が表示された。一方、「3人の白人の若者」の検索では、笑顔の若者たちのページがヒットした。15年のオンライン広告の研究によれば、グーグルのAIシステムが女性ユーザーに提示する高給の仕事の広告数は、男性ユーザーのそれよりも少なかった。
AIのシステムには、社会全体の偏見が意図せず反映されることが多い。理由の1つは、まず最初に大量のデータを学習しなければならないからだ。データという「エサ」をAIに食べさせるのは人間であり、誰もが固有の偏見にとらわれている。
データ自体にも問題があるようだ。AIシステムのためにデータを取得する方法は、大きく分けて2つある。1つは、「プラットフォーム」を構築してデータを収集するやり方。ユーザーの個人情報を無料で集めるフェイスブックはその一例だ。
もう1つの方法は、他の誰かのデータを有料または無料で入手することだが、このやり方はさまざまな問題の原因になりかねない。例えば著作権問題を回避するために、誰でも無償で利用できる「パブリックドメイン」のデータを使うケース。ニューヨーク大学法科大学院のアマンダ・レベンドウスキの論文によれば、この種のデータには歴史的経緯に基づく偏見が大量に含まれている。
データの「公正な利用」が必要
大規模でまとまったデータセットは著作権で保護されている場合が多いため、AIの製作チームはパブリックドメインやその他の公開データ(ウィキリークスの暴露文書や機密指定解除済みの捜査文書など)をよく利用する。公開データは著作権の制約がなく、誰でも無料で利用できる。
<ニューズウィーク日本版2月14日発売号(2018年2月20日号)は「AI新局面」特集。人類から仕事を奪うと恐れられてきた人工知能が創り出す新たな可能性と、それでも残る「暴走」の恐怖を取り上げた。この記事は特集より>