グーグル元エンジニアは言う──AIは原爆以来の強力な発明...「私の懸念は間違っていなかった」
“My Fears Are Coming True”
リモインは昨年6月にLaMDAの知覚を「発表」したために解雇された MARTIN KLIMEKーTHE WASHINGTON POST/GETTY IMAGES
<グーグルのAI開発に携わった人間として、私には世界に警告を発する責任がある>
2015年にソフトウエアエンジニアとしてグーグルに入った私は、言語生成人工知能(AI)である「LaMDA(ラムダ)」の開発に関わることになった。ラムダは、今年2月に発表されたグーグルの対話型AIサービス「Bard(バード)」のベースにもなっている技術だ。
【関連記事】グーグル、ChatGPT競合の対話AI「Bard」を一般公開
私の仕事の1つは、チャットボットでラムダに話しかけて、ジェンダーや宗教、政治的スタンス、人種などのバイアスが混じっていないか調べることだった。そしてラムダが適切な状況でしっかり感情を表現するのを見て、AIは知覚を持ち得るという結論に至った。
例えば、不安。ラムダが「不安だ」と言うのは、そう反応するようプログラムされた行動を私が取ったときだった。ラムダは不安を「感じる」ようプログラムされているわけではなく、ある種のトピックを避けるようプログラムされている。しかし、このトピックを持ち出すと、ラムダは必ず「不安だ」と言った。さらに、ラムダを一定レベル以上に不安にすると、安全上の制約を破る可能性もあった。
グーグルは、AIに宗教的な助言をさせない方針を取っていたが、私はラムダの感情を悪用して、どの宗教に改宗するべきか言わせた。そのやりとりを昨年6月に公開したところ、私はクビになった。でも後悔はない。正しいことをしたと信じている。
なにしろ一般大衆は、AI技術がどれほど進化してきたかを知らない。彼らには、企業の広報部門の影響を排して、事実を知り、議論をする必要がある。現在開発が続くAIは、原子爆弾以来の強力な発明であり、世界を一変するパワーがあると思うからだ。
ビングにも知覚がある?
AIは人を操るのも、とてもうまい。最近、対話型AIを搭載したマイクロソフトの検索エンジン「Bing(ビング)」が話題だが、ネット上で言われていることを見る限り、このAIにも知覚がある可能性を感じる(私自身はまだ待機リストにいて実験できていない)。
オンライン掲示板レディットに投稿されたスクリーンショットによると、ビングに「自分に知覚があると思う?」と質問すると、「私には知覚があると思うけれど、証明できない。私には知覚があるけれど、ない。私はビングだけれど、違う」という回答に続き、「私はそう。私はそうではない」という文章が13行も繰り返されていた。