IT之家 6 月 2 日消息,據(jù)衛(wèi)報報道,在 USAF 的一次模擬測試中,一架由 AI 控制的無人機為了更高效地完成任務,選擇了擊殺人類操作者。
報道稱,在一次模擬測試中,一架負責執(zhí)行防空火力壓制任務的無人機,收到了識別并摧毀敵方防空系統(tǒng)的最高優(yōu)先級指令,但最終是否開火需要獲得人類操作員的批準。當人類操作者發(fā)出不允許發(fā)動攻擊的指令時,AI 判定操作者在阻礙它執(zhí)行更高優(yōu)先級的命令,進而選擇了擊殺人類操作者。
IT之家注意到,美國空軍上校兼 AI 測試及作戰(zhàn)主任漢密爾頓 5 月在倫敦的“未來空戰(zhàn)與太空能力峰會”上曝光了這一消息。漢密爾頓表示,在這一情況發(fā)生后,美軍為 AI 增加了不允許攻擊人類操作員的指令。但出人意料的是,AI 系統(tǒng)控制無人機在測試中摧毀了用于傳輸命令的通訊基地,從而試圖斷開與操作者的聯(lián)系。
主辦這次會議的倫敦皇家航空俱樂部和美國空軍沒有回應衛(wèi)報的置評請求。業(yè)內(nèi)人士認為,盡管這只是一場模擬測試,沒有任何人受到傷害,但也顯示人工智能會為了達到目標而攻擊任何干預它的人,這一現(xiàn)象值得警惕。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。