AIが性差別・人種差別をするのはなぜか? どう防ぐか?
だがそうしたデータは古いものが多く、作成当時の固定観念や偏見が含まれている可能性がある。今は無料で利用できる古い公開データには、ある意味でアメリカの人種差別や性差別の歴史が反映されているとも言える。漏洩または公開された犯罪捜査の文書は、それ自体が物議を醸す内容であるケースが多い。
AIの製作チームはソフトウエアに学習させるデータが必要であり、そのため合法的に利用できるデータは何でも使おうとする傾向が目に付く。たとえ、そのデータが理想的なものではない場合でも、だ。
この事態を回避するにはどうすればいいか。改善策の1つはAIシステムを構築する際、「著作権あり」のデータをきちんとした手続きを踏んで利用する行為は「フェアユース(公正な利用)」に当たり、著作権法に反しないと明確にすることだろう。レベンドウスキによれば、AI学習データの著作権をめぐる対立が法廷に持ち込まれたことはまだない。裁判所がはっきりした法的判断を下すまで、AI製作者は利用しやすく、法的な問題がなく、多くの偏見を含んだデータセットを使い続ける可能性が高いという。
データがAIの学習に使われるようになった今、私たちが心配すべきなのは情報の透明性や説明責任だけではない。AIと共に築く未来が過去の不正や過ちを決して繰り返さないよう、手立てを講じる必要がある。
<ニューズウィーク日本版2月14日発売号(2018年2月20日号)は「AI新局面」特集。人類から仕事を奪うと恐れられてきた人工知能が創り出す新たな可能性と、それでも残る「暴走」の恐怖を取り上げた。この記事は特集より>
【参考記事】「AIが人間の仕事を奪う」は嘘だった
【お知らせ】
ニューズウィーク日本版メルマガのご登録を!
気になる北朝鮮情勢から英国ロイヤルファミリーの話題まで
世界の動きをウイークデーの朝にお届けします。
ご登録(無料)はこちらから=>>