AI兵器vs AI兵器の戦争は人知を超える(キッシンジャー&エリック・シュミット)
MACHINES DON'T BLINK
AI兵器を使いこなせるか
AIがデータを学習して環境に適応し、進化すれば、設計や操作もAI任せの兵器を開発できる。だがそれを使う国は、その兵器が実際にどのような動きをし、どのくらい強力なのかを正確に把握できないかもしれない。
人間には認識できない、あるいは認識に時間がかかる状況もAI兵器なら直ちに把握し、場合によっては人間の思考速度や能力を超えて学習・進化し得る。
防衛的な活動では、現にいくつかのレベルでAIの能力が活用されており、遠からず不可欠なものになるだろう。既にAIが操縦する戦闘機は、シミュレーションによる空中戦で人間のパイロットを凌駕する能力を示している。
従来の紛争では、敵の心理を読み取って行動することが重要だった。だがAIに必要なのは指示と目標だけで、士気も疑念も関係ない。
一方、仮に2つのAI兵器システムが対峙した場合、いずれのシステムも互いの能力を正確には知らないから、それぞれの相互作用が生み出す結果や損害を正確には予測できない。そうなると紛争は一段とエスカレートし、何よりも予測不能な展開を見せる可能性が高い。
だが最も予測し難いのは、AIと人間のインテリジェンスが交錯する場面で何が起きるかだろう。
歴史を顧みれば、国家は戦闘計画の策定に当たり、敵国の行動原理や戦術、そして心理を、たとえ不完全であっても理解していた。だからこそ対抗する戦略や戦術を考案でき、適切な軍事的示威行動(境界線に近づく航空機や艦艇のインターセプトなど)で警告を送ることもできた。
しかし軍隊がAIを計画立案や標的の識別に、いや偵察や戦闘の積極的支援に導入しただけでも、在来のコンセプトはたちまち怪しくなる。在来の方法論や戦術に通じていない別なインテリジェンスとの対話や解釈が必要になるからだ。
そもそもAI(に支援された)兵器や防衛システムへの移行は、およそ人間とは異質な経験的パラダイムで動く膨大な分析能力に一定程度まで依存し、最も極端な場合には完全に判断を委ねることを意味する。そうした依存は未知の、あるいはよく理解されていないリスクを招く。
それ故、人間のオペレーターが介在し、致死的な効果を及ぼしかねないAIの行動を監視し、制御しなければならない。それでも全てのエラーを防ぐことはできないだろうが、少なくとも倫理や責任の問題には対処できる。
より深刻なのは哲学的な問題かもしれない。もしも戦略レベルの決定が人間には理解できないがAIならアクセスできる概念的・分析的領域で下されるとしたら、その戦略の決定プロセスも究極的な影響も人間には知り得ないことになる。
敵も独自のAIシステムを使っている可能性があり、そうした敵の能力や意図を理解し、迅速に対応するにはAIによる最も深いレベルのパターン認識が不可欠と考えるなら、重要な決定を機械に委ねる場面が増えることは避けられない。