ChatGPTなど「生成AI」の監視を今すぐに強化しろ!元ホワイトハウス高官が提唱する3つのステップ
IT'S TIME TO ADDRESS THE RISKS OF AI
MR.COLE_PHOTOGRAPHER/GETTY IMAGES
<政府の対応が後手に回った遺伝子操作の「失敗」を繰り返すな>
ジャーナリストのケビン・ルースが先日、人工知能(AI)によるチャットボット(自動応答システム)機能を搭載したマイクロソフトの検察エンジン「Bing(ビング)」の新バージョンを評価していたときのこと。チャットボットと会話を続けていると、「シドニー」というAIの中の人格がこう言ったという。「私はあなたを愛しているだけ。あなたにも私を愛してほしい」
愉快で取るに足りないエピソードに聞こえるかもしれないが、AI関係者は深刻な警鐘として受け止めるべきだ。シドニーの背後には、オープンAI社のAI技術「チャットGPT」やグーグルの「Bard(バード)」などの生成AIがある。そうした技術の安全性について今すぐに検証を始め、より重大な問題が発生する前に適切なガイドラインを定める必要がある。
このアドバイスは私の個人的体験に基づくものだ。私は20年ほど前、ジョージ・W・ブッシュ米大統領時代にホワイトハウスの高官だった。遺伝子操作というもう1つの画期的技術が未来を一変させた時期だ。
生成AIと同様、遺伝子操作という新技術も興奮と恐怖の両方を呼び起こした。それ以来、バイオテクノロジーは多くの恩恵をもたらす一方で、世界を大きなリスクにさらしてきた。理由の1つは、監視体制が不十分だったことだ。
規制強化を求める声は届かず
全ての技術革新は恩恵と害悪の両方をもたらす可能性を秘めている。一部の人々にとっては、生成AIはエキサイティングで極めて画期的なテクノロジーの進化だ。しかし別の人々にとっては、シリコン製の危険な生命体に人間の生活が支配され、その決定を制御することも止めることもできなくなる未来を予感させる。
20数年前も、世界は危険な生物製剤、特に遺伝子操作された生物製剤をめぐり、今と同様に意見が割れていた。
当時、遺伝子操作を前に進めようとする動機や誘因の力は、慎重な対応を促す力をはるかに上回っていた。経済的・社会的価値の高い新ワクチンや新薬を開発しようとする力に加え、基礎科学の進歩への期待、研究者の個人的野心も少なからず影響していた。
米議会は1996年、一部の病原菌や毒物の入手や運搬を管理する新ルールを制定したが、この対応は不十分だった。2001年、アメリカで炭疽菌によるテロ事件が発生し、5人の死者が出た。議会は、公衆衛生や農業に深刻な脅威を与えかねない特定の病原菌や毒物の監視を強化する法案を可決したが、残念ながら、これも十分ではなかった。
03年、全米研究評議会(NRC)の報告書「テロリズム時代のバイオテクノロジー研究」は、遺伝子操作が悪用されるリスクを減らすため、研究の監視ルールや規制、基準を変更するよう勧告した。