ロボット時代の倫理感は? 人とロボットのラブ・セックス・バイオレンス
セラピー用アザラシ型ロボット「パロ(PARO)」は、日本の独立行政法人産業技術総合研究所が開発したアザラシ型ロボット。
<ロボットの存在は、ヘルスケアや軍事、セキュリティなども含め、生活のさまざまなシーンの中で見られるようになってきた。そして近年、「ロボット」は学問を超え倫理面においても考察されるようになってきている>
Silicon Valley Roboticsは最近、Good Robot Design Councilを立ち上げた。そこでは、ロボティクスの専門家や学者たちへのガイドライン「ロボティクスの原則」が提唱され、マーケティングへの利用やその倫理について述べられている。下記は、その中でも代表的な5つの規則である。
- (1) ロボットは兵器として設計されるべきではない
- (2) ロボットはプライバシーに関するものを含む既存の法律を守らなければならない
- (3) ロボットは製品であり、十分な安全性・信頼性を満たし、機能の説明に誤りがあってはいけない
- (4) ロボットは人工物である。ユーザを利用するために感情や主体性があるよう振る舞うべきではない
- (5) どのようなロボットについても、誰が責任を追うのかについて追求できるべきである
これらの規則はEPSRC 2010の「ロボティクスの原理」に準じたものだ。英国では、数ヶ月前にオックスフォードで英国規格協会(BSI)が開催した「ソーシャルロボティクス&AIカンファレンス」においても、ロボットの倫理的リスク評価のアプローチについ。て同じような研究報告「BS8611 ロボットとロボティクスデバイス」が発表されている。
これは科学者、倫理家、哲学者、ユーザ、ロボットが使うデバイスのデザイナーなどからなる委員会によって執筆されたものだ。米国のガイドラインと同じく、SF作家アイザック・アシモフが提唱した「ロボット三原則」がその根底にある。そこでは、「ロボットは人に危害を加えることを目的に設計されるべきではない」ということや、「人間はロボットとその行動の責任を誰が負うのかを明らかにする義務がある」などが宣言されている。
関連記事:警備ロボは人を守ってくれる? 突き飛ばし事故から懸念される安全性
「ロボットやオートメーションの利用による製造過程の効率化、柔軟性の確保は、製造業の進歩にとって重要だ。だが、それが受け入れられるためには、人が人間性を失ったり、ロボットへの過剰依存といった倫理上の問題に取り組まなければならない。今回のガイダンスはさまざまな用途でのロボット活用を確立するために設計者やユーザはどうするべきかを指し示すものになる」と、BSIの製造部トップのダン・パルマー氏は述べている。
工業やパーソナルケア、医療を含むさまざまなロボットの安全上の要求はあるものの、それでもロボットやオートメーションが日常に組み込まれるという事実に潜む「モラルハザード」は認識されている。そして、それらが特に懸念される分野は、子どもや老人の世話に関するものだろう。