米国、AIの軍事利用加速 ビッグデータ活用でミサイル発射の兆候察知へ
AIが騙されるリスクも
米核戦略の最高司令官ジョン・ハイテン空軍大将は、AI主導システムが本格稼働する場合、国防総省が「エスカレーション・ラダー」と呼ぶ、核に関する意思決定ペースを、機械ではなく人間がコントロールする安全装置を設ける必要に迫られるだろうと語る。
「安全装置を設けなければ、(AIによって)エスカレーション・ラダーに乗せられてしまう」とハイテン戦略軍司令官はロイターとのインタビューで語った。「それに乗ってしまえば、すべてが動き出す」
公共政策研究シンクタンクのランド・コーポレーションなどに所属する複数の専門家は、中国やロシアなどの国がミサイルを特定されないよう隠蔽する方法を身につけ、AIによるミサイル探知・追尾システムを騙そうとする可能性は高い、と指摘する。
こうした騙しが成功する可能性を示す証拠はいくつか存在する。
米マサチューセッツ工科大学の学生による実験では、コンピューターで対象を識別するグーグルの先端的な画像分類システムを騙すことがいかに簡単か証明した。この実験では、プラスチック製のカメの玩具をライフル銃だとシステムに誤判定させることに成功している。
後のインターネットにつながるプロジェクトの出資者であり、AIにおける先駆的存在でもあるスティーブン・ウォーカー国防高等研究計画局(DARPA)局長は、AIが出した結論について、国防総省では人間による検証を依然必要としていると語る。
「システムが騙されてしまう可能性があるからだ」とウォーカー局長はロイターに語った。
DARPAでは、AIシステムが人間のアナリストに対して上手に説明できる能力を得るためのプロジェクトに取り組んでいる。それは国家安全保障に関わる重大なプログラムにおいては、優れた説明能力が必要不可欠であると考えているからだ。