「AI核戦争」の悪夢を避けるために...問題は機械による意思決定プロセスへの介入
PREVENTING AI NUCLEAR ARMAGEDDON
核兵器とAIの組み合わせは核戦争のリスクをさらに高めてしまう IG_ROYAL/ISTOCK
<各国政府はAIの安全性に関する取り組みを進めているが、核兵器への応用についての深刻な懸念が浮上している>
もはやSFの話ではない。核兵器システムにAI(人工知能)を導入しようとする競争が加速するなか、核戦争勃発のリスクも日に日に高まっている。
AIの安全な開発と運用に向けて、各国政府が腰を上げた点は明るい兆しだ。しかし核戦争のリスクを本気で軽減させたいのなら、世界の指導者たちはまず、この脅威の深刻さを認識する必要がある。
G7は10月末、AIに関するルール作りの枠組み「広島AIプロセス」における開発者向けの国際指針と行動規範に合意した。バイデン米大統領はAIの安全性に関する新基準を定める大統領令に署名。英政府も11月初めに世界初の「AI安全サミット」を主催した。
とはいえ、いずれのイニシアチブもAIの核兵器への応用がもたらすリスクに十分に対応できるとは言い難い。
核の歴史はニアミスの連続だ。1983年、ソ連の軍人スタニスラフ・ペトロフが、米軍の核ミサイルがソ連に向けて発射されたとの警告を受信した。即座に上司に報告すれば核による「報復」が避けられない場面だったが、彼はシステムの誤作動だと判断。実際、そのとおりだった。
もしもこのプロセスにAIが関わっていたら、ペトロフは同じ判断を下しただろうか(そもそも、同じ判断を下す選択肢があっただろうか)。
AIの進化に伴い、機械による意思決定プロセスは不透明さを増している。いわゆるAIの「ブラックボックス問題」である。その結果、AIの働きを監視しにくくなり、ましてや不正アクセスや誤作動の有無を判断するのは困難極まりない。単に発射の最終決定を人間が担うだけでは、こうしたリスクを十分に軽減することはできない。
また、核の危機に直面した指導者の意思決定プロセスはこれまでも極めて慌ただしかった。そこにAIが関与すれば、それが発射の判断ではなく探知や標的設定に限ったものであっても、人間が発射の可否を決める時間的猶予はさらに短くなる。指導者へのプレッシャーが強まれば、判断ミスや非合理的な選択をするリスクも高まる。
人工衛星などの情報探知システムにおけるAI活用も、さらなるリスクの高まりにつながる。これまで検知されにくかった弾道ミサイル搭載潜水艦などの核を隠しにくくなるため、核保有国は紛争の初期段階、つまり敵に既知の核システムを無力化されてしまう前に、全ての核を配備することになりかねない。