MITメディアラボ所長 伊藤穰一が考える「社会参加型人工知能 」
人工知能 (AI) は裁判官の仕事を奪えるのか? Photo by wp paarz via Flickr - CC BY-SA
<人工知能 (AI)が、ますます社会の重要な分野に進出した時、社会にどう監査され、コントロールされるかという問題は、最も重要な領域となるかもしれない>
社会参加型 (society-in-the-loop) 機械学習とは
社会参加型 (society-in-the-loop) 機械学習という用語を使うのをぼくが初めて聞いたのは、イヤド・ラフワンがそれを口にしたときだった。かれはScience に掲載されたばかりの論文を説明していたところで、その論文は自動運転車に人々がどんな判断を行ってほしいと思うかについて世論調査を行うというものだった----哲学者たちが「トローリー問題」と呼ぶものの現代版だ。
この考え方は、世間の優先順位や価値観を理解することで、社会が倫理的と考えるやり方で機械が振る舞うように訓練できるというものだ。また、人々が人工知能 (AI) とやりとりできるようにするシステムを作って、質問をしたり行動を見たりすることで倫理を確かめてもいい。
【参考記事】MITメディアラボ所長 伊藤穰一が考える「AI時代の仕事の未来」
社会参加型 (society-in-the-loop) 機械学習は、人間参加型 (human-in-the-loop)機械学習を拡張したものだ----人間参加型 (human-in-the-loop)機械学習機械学習は、メディアラボのカルシック・ディナカールが研究してきたもので、AI研究の重要な一部として台頭しつつある。
ふつう、機械はAIエンジニアたちによって、大量のデータを使い「訓練」される。エンジニアたちは、どんなデータを使うか、どう重み付けをするか、どんな学習アルゴリズムを使うか、といった各種パラメータをいじって、正確で効率よくて正しい判断をして正確な洞察を与えてくれるようなモデルを作り出そうとする。
問題の一つは、AIというかもっと厳密には機械学習がまだとてもむずかしいので、機械を訓練する人々は通常、その分野の専門家じゃない。訓練するのは機械学習の専門家で、学習後に完成したモデルを試験するのも専門家であることが多い。
大きな問題は、データの中のバイアスやまちがいは、そうしたバイアスやまちがいを反映したモデルを作り出す、ということだ。こうした例としては、令状なしの身体捜索を許容する地域からのデータだ----その標的になったコミュニティはもちろん、犯罪が多いように見えてしまう。
人間参加型 (human-in-the-loop)機械学習機械学習は、専門家とのやりとりを通じて学習する機械を作り出すことにより、その分野の専門家が訓練をやるか、少なくとも訓練に参加できるようにすることだ。人間参加型 (human-in-the-loop)コンピューティングの核心にある発想は、モデルをデータだけから構築するのではなく、そのデータについての人間的な視点からもモデルを作るということだ。
カルシックはこのプロセスを「レンズ化 (lensing)」と呼んでいる。つまりある領域の専門家が持つ人間的な観点またはレンズを抽出し、訓練期間中にデータと抽出されたレンズの両方から学ぶようにするわけだ。これは確率的プログラミングのためのツール構築と、機械学習の民主化の両方にとって意味があることだとぼくたちは思っている。
機械が裁判官の仕事を奪うという可能性について議論した
哲学者、聖職者、AIや技術の専門家たちとの最近の会合では、機械が裁判官の仕事を奪うという可能性について議論した。データがらみのことなら機械がとても正確な評価を下せるという証拠はあるし、裁判官が決める保釈金の額や仮釈放の期間といったものは、人間より機械のほうがずっと正確にできると思うのは無理もないことだ。
さらに、人間の専門家は適切に保釈金額を決めたり仮釈放の判断をしたりするのが苦手だという証拠もある。仮釈放判定委員会による聴聞が昼ご飯の前か後かで、結果にはかなりの影響が出てしまう(この論文で引用された研究についてはいくつか批判があり、論文著者たちはそれに対して答えている)。
議論の中で、一部の人はある種の判断、たとえば保釈金額や仮釈放などを裁判官ではなく機械に任せてはどうかと提案した。哲学者と聖職者数名は、それが効用主義的な観点からは正しく思えても、社会にとっては裁判官が人間だというのが重要なのだと説明した。そのほうが「正しい」答えが出るよりも大事なんだという。
効用を重視すべきかという問題はさておき、どんな機械学習システムだろうと、社会が受け入れるかどうかはとても重要になるし、この観点に取り組むのは不可欠なことだ。