MITメディアラボ所長 伊藤穰一が考える「社会参加型人工知能 」
この懸念に対処する方法は二つある。一つは「人間参加型 (human-in-the-loop)」にして、人間の裁判官の能力を補ったり支援したりするのに機械を使うというものだ。これはうまくいくかもしれない。その一方で、医療や飛行機の操縦といったいくつかの分野の経験を見ると、人間は機械の判断を取り消してまちがった判断を通してしまうことがあり、一部の場合には人間が機械の判断を取り消せないようにしたほうがいい。でも人間が投げやりになったり、結果を盲目的に信用するようになったりして、機械にすべて任してしまう可能性もある。
第二の方法は、機械を世間によって訓練させること(社会を参加させる)だ----人間が、機械が自分たちの、おおむねおそらくは、多様な価値観を信頼できる形で代弁していると思うような形で訓練してもらえばいい。これは前例がないことではない----多く意味で、理想的な政府は、それが十分に物事を理解しており、熱心だと人々が思っているので、それが自分を代弁していると感じ、そして政府の行動に対して自分が最終的に責任を負うと感じるようなものだ。
社会が機械の価値観や行動を試験し、監査する手法が必要
社会が訓練できて、社会が信用できるほど透明性があるようにすることで、社会の支持と代弁能力を獲得できる機械を設計する方法があるのかもしれない。政府は、競合して対立する利害と対処できているし、機械だってそれができるかもしれない。もちろんややこしい障害はたくさんある。たとえば伝統的なソフト(コードは一連のルールだ)とはちがい、機械学習モデルはもっと脳みたいなものだ----一部だけを見て、それが何をするか、今度どう動くかをずばり理解するのは不可能だ。社会が機械の価値観や行動を試験し、監査する手法が必要だ。
この機械の究極の創造者にしてコントローラーとしての社会からインプットを得て、そしてその支持を得る方法を編み出せれば、それはこの司法問題の裏面も解決するかもしれない----人間が作った機械が犯罪を犯したらどうするか、という問題だ。
たとえば、自動運転車の振る舞いに対して、社会が十分な入力とコントロールを得ていたと感じるならば、その社会は自動運転車のふるまいや潜在的な被害についても、自分やそれを代表する政府に責任があると感じ、自動運転車の開発企業すべてが直面する製造物責任問題を迂回する一助になるんじゃないだろうか。
機械が社会からの入力をどのように得て、社会によりどう監査されコントロールされるかという問題は、人命を救い正義を実現するために人工知能を導入するにあたり、開発されるべき最も重要な領域となるかもしれない。それにはおそらく、機械学習ツールを万人が使えるようにして、とてもオープンで包含的な対話を実施し、人工知能の進歩からくる力を再分配することが必要になる。見かけ上だけ倫理的に見えるよう訓練する方法を考案するだけじゃダメだ。
Credits
*イヤド・ラフワン (Iyad Rahwan) - 「社会参加型 (society-in-the-loop)」など多くのアイデアについて
*カルシック・ディナカール - 「人間参加型 (human-in-the-loop)」機械学習について教えてくれたことと、ぼくのAIの先生となってくれたこと、その他のアイデアについて
*アンドリュー・マカフィー (Andrew McAfee) - 仮出所審査委員会についての研究紹介と考え方を教えてくれた
*ナタリー・サルティエル - 編集作業
*訳:山形浩生
CC BY 2.1 JP
この記事は、JOI ITO ブログからの転載です。
伊藤穰一
MITメディアラボ所長。株式会社デジタルガレージ共同創業者で取締役。ソニー株式会社社外取締役。The New York Times、Knight財団、FireFox 開発の Mozilla Foundationのボードメンバー。 2008年米国Business Week誌にて「ネット上で最も影響力のある世界の25人」、2011年米国Foreign Policy誌にて「世界の思想家100人」、2011年英オクスフォード大学インターネット研究所より特別功労賞受賞。
Photograph of Joichi Ito by Mizuka. CC BY 2.0