画像生成AIの「人種的偏り」は誰のせい? 白人男性ばかりが目立つ理由
Does AI Dream of a White World?
AIツールに偏りがあることは何年も前から指摘されてきた。アマゾンの履歴書評価ツールは男性ばかり選ぶとか、AIが裁判官に提示する再犯可能性の高い人物の予測が人種的に偏っているとか、さまざまな事例がある。
多くの専門家と話した結果、おぼろげながら問題の本質が見えてきた。これはデータと人間の思い込みの問題と言えそうだ。AIツールはカップルや人間の手を生成する作業において、私たちの多くが想定するようには機能しない。
その原因はAIの「トレーニングセット」に含まれるデータと関連がある。「AIツールの開発者が初期段階で特定・分離できなかった偏りが含まれていた場合、その製品は偏った答えを出す可能性が高い」と、AIにみられる人種や性別の偏りに関する論文を発表したフロリダ国際大学のマンジュル・グプタ教授(情報システム)は指摘する。
パターン学習の弊害
もう1つの問題は、私も多くの人々と同様、AIツールが何をするのかを誤解していたことだ。開発者は世界屈指の天才なのだから、私たちの住む世界(現実のアメリカ社会)に近い結果を生み出す方法を考案したと思っていた。
AIツールは通常、1つのプロンプトに対し4通りの結果(画像の候補)を返す。だが、非営利の研究機関モントリオールAI倫理研究所の主任研究員アビシェク・グプタによれば、たとえ4通りのプロンプトを入力しても、AIツールはデータセット中に最も多く登場するグループを抽出し、小さな差異しかない結果を提示する傾向がある。
この「グループ」は通常、白人のことだ。「誰かが明示的にそうしているわけではない。データセットの中に突出して多く存在するからだ」
AIツールの人物画像に白人男性ばかりが目立つ理由もそれに近いと、機械学習の企業ハギングフェイスの研究員でAIの倫理問題を調べているサーシャ・ルチオーニは指摘する。
彼女はステーブル・ディフュージョンとダリ2が150の異なる職業をどう画像化するかを示す2つのツールを開発。例えば女性、黒人、アジア系などの単語を明示的に加えない限り、ツールはアメリカ社会の実態とは程遠い結果を返すことが多い。
この問題を修正するのが難しい理由は、AIがしばしば6本指の手を生成する理由と関連があると、ルチオーニは言う。人口動態的に正確な、あるいは解剖学的に正しい結果を提供するようにプログラムを書くことはできないからだ。「プログラムは明確なルールを与えられているわけではなく、パターンを学習しているだけだ」