AI(人工知能)をめぐる軍拡レース──軍事革命の主導権を握るのは誰か
ただし、AIの軍事利用やその開発レースには大きく二つのリスクがある。
第一に、アクシデントによる軍事衝突を増やしかねないことだ。
領空・領海を誤って侵犯した航空機や船舶などにロボット兵器が反応してしまった場合、AIの判断速度に人間がついていけず、制御できないまま、衝突が連鎖反応的に広がることもあり得る。欧州外交問題評議会のウルリケ・フランケはこうした偶発的衝突のリスクを「火花の戦争」と呼び、その危険性を指摘する。
第二に、責任の所在が曖昧になることだ。ハッキングされたり、バグを起こしたりしてロボット兵器が人間を殺傷した場合、誰がその責任を負うのか。
戦闘中の行為は、そもそも責任が曖昧になりやすい。しかし、人間が引き金を引くのではなく、機械のセンサーによって兵器が作動することは、それで犠牲者が出ても、人間が軍事力の行使に最終的な責任を負うという意識をこれまで以上に希薄にしてしまう。
そのため国連ではロボット兵器に関する規制に取り組んでおり、その責任者である日本の中満泉・国連軍縮担当上級代表は昨年、米Politicoのインタビューに「2年以内に」ロボット兵器の国際的な規制に目処をつけられると語っていたが、ロシアや中国だけでなくAIの軍事利用に熱心なアメリカやイギリスもそれに抵抗している以上、近い将来に意味のある規制が生まれるとは想定しにくい。それはAI軍拡レースをさらに加速させるだろう。
こうした懸念があっても、相互の敵意と警戒によってエスカレートするAI軍拡レースは、歯止めなく深刻化する世界情勢の縮図といえる。その行方がどうなるのか、それこそAIにでも聞くべきだろうか。
※当記事はYahoo!ニュース 個人からの転載です。
※筆者の記事はこちら。
「核兵器を使えばガザ戦争はすぐ終わる」は正しいか? 大戦末期の日本とガザが違う4つの理由 2024.08.15
パリ五輪と米大統領選の影で「ウ中接近」が進む理由 2024.07.30
フランス発ユーロ危機はあるか──右翼と左翼の間で沈没する「エリート大統領」マクロン 2024.07.10