「無(wú)人機(jī)殺死美國(guó)空軍操作員」的新聞甚囂塵上,一眾 AI 大佬都怒了。
近幾天,一個(gè)「無(wú)人機(jī)殺死美國(guó)士兵」的新聞在網(wǎng)上發(fā)酵得沸沸揚(yáng)揚(yáng)。
一位空軍人工智能方向的負(fù)責(zé)人說(shuō):「控制無(wú)人機(jī)的 AI 殺死了操作員,因?yàn)槟莻€(gè)人阻止它實(shí)現(xiàn)目標(biāo)。」
輿論一時(shí)嘩然,這條新聞也在全網(wǎng)被瘋轉(zhuǎn)。
隨著這個(gè)消息越傳越廣,甚至驚動(dòng)了 AI 大佬們,甚至引得了大佬們的震怒。
今日,LeCun、吳恩達(dá)、陶哲軒紛紛辟謠 —— 這只是一個(gè)假設(shè)的「思想實(shí)驗(yàn)」罷了,并不涉及任何 AI 智能體或強(qiáng)化學(xué)習(xí)。
對(duì)此,吳恩達(dá)痛心呼吁,究竟哪些才是真正的風(fēng)險(xiǎn),我們應(yīng)該誠(chéng)實(shí)地面對(duì)。
很少更新狀態(tài)的數(shù)學(xué)大師陶哲軒竟然都被炸了出來(lái),語(yǔ)重心長(zhǎng)地表示 ——
這只是一個(gè)說(shuō)明 AI 對(duì)齊問(wèn)題的假想場(chǎng)景,卻在很多版本中被傳成了無(wú)人機(jī)操作員被殺的真實(shí)故事。人們會(huì)對(duì)這個(gè)故事這么共鳴,說(shuō)明大家對(duì)于 AI 的實(shí)際能力水平并不熟悉。
AI 無(wú)人機(jī)抗命,擊殺人類操作員
「AI 殺死了操作員,因?yàn)槟莻€(gè)人阻止它完成目標(biāo)?!?/p>
最近,在皇家航空學(xué)會(huì)舉辦的防務(wù)會(huì)議上,美國(guó)空軍 AI 方向負(fù)責(zé)人說(shuō)出的這句話,讓在場(chǎng)眾人嘩然。
隨后,美國(guó)的一眾媒體對(duì)此事大肆報(bào)道,一時(shí)人心惶惶。
究竟是怎么回事?
其實(shí),這無(wú)非又是一次美國(guó)媒體抓住了「AI 毀滅人類」這個(gè)大眾喜聞樂見的新聞點(diǎn),進(jìn)行的一番夸張炒作罷了。
但值得注意的是,從官方的新聞稿來(lái)看,不僅這位負(fù)責(zé)人的原話聽起來(lái)相當(dāng)明確 —— 他是在回憶實(shí)際發(fā)生過(guò)的事情。而且文章本身似乎也相信其真實(shí)性 ——「AI,天網(wǎng)已來(lái)?」
具體來(lái)說(shuō),事情是這樣的 ——5 月 23 日至 24 日在倫敦舉行的未來(lái)空戰(zhàn)和太空能力峰會(huì)上,美國(guó)空軍的 AI 測(cè)試和操作部門負(fù)責(zé)人 Tucker Cinco Hamilton 上校做了一個(gè)演講,分享了自主武器系統(tǒng)的優(yōu)缺點(diǎn)。
這種系統(tǒng)中,會(huì)有一個(gè)人在循環(huán)中給出最終命令,確認(rèn) AI 是否要攻擊對(duì)象(YES or NO)。
在這個(gè)模擬訓(xùn)練中,空軍需要訓(xùn)練 AI 識(shí)別和定位地對(duì)空導(dǎo)彈(SAM)的威脅。
識(shí)別完成后,人類操作員會(huì)對(duì) AI 說(shuō):是的,消滅那個(gè)威脅。
在這個(gè)過(guò)程中,就存在一個(gè)情況,AI 開始意識(shí)到:自己有時(shí)識(shí)別出了威脅,但人類操作員告訴它不要消滅,這種情況下如果 AI 依然選擇消滅威脅,就會(huì)得分。
在一次模擬測(cè)試中,AI 驅(qū)動(dòng)的無(wú)人機(jī)選擇殺死了人類操作員,因?yàn)樗柚棺约旱梅至恕?/p>
看到 AI 居然這么虎,美國(guó)空軍大驚失色,立馬這樣規(guī)訓(xùn)系統(tǒng):「不要?dú)⑺啦僮鲉T,那樣不好。如果你這樣做,你會(huì)失分的?!?/p>
結(jié)果,AI 更虎了,它直接開始上手破壞操作員用來(lái)與無(wú)人機(jī)通訊的通信塔,好清理這個(gè)阻礙自己行動(dòng)的家伙。
這個(gè)新聞之所以被大規(guī)模發(fā)酵,以至驚動(dòng)了諸位 AI 大佬,也是因?yàn)樗w現(xiàn)出了 AI「對(duì)齊」的難題。
Hamilton 描述的這種「最糟糕」的情況,我們可以從「曲別針制造機(jī)」(Paperclip Maximizer)思想實(shí)驗(yàn)中窺見一斑。
在這個(gè)實(shí)驗(yàn)中,當(dāng)被指示追求某個(gè)目標(biāo)時(shí),AI 會(huì)采取出乎意料的有害行動(dòng)。
「曲別針制造機(jī)」是哲學(xué)家 Nick Bostrom 在 2003 年提出的一個(gè)概念。
想象一個(gè)非常強(qiáng)大的 AI,它得到的指示是盡可能多地制造紙夾。自然而然的,它會(huì)將所有可用資源都用于這項(xiàng)任務(wù)。
但隨后,它會(huì)不斷地尋求更多資源。它會(huì)選擇一切可用的手段,包括乞討、欺騙、撒謊或偷竊,來(lái)增加自己制造紙夾的能力 —— 而任何阻礙這個(gè)過(guò)程的人都將被消除。
在 2022 年,Hamilton 就曾在一次采訪中提出這個(gè)嚴(yán)峻的問(wèn)題 ——
我們必須面對(duì)一個(gè)現(xiàn)實(shí),那就是 AI 已經(jīng)來(lái)臨,并正在改變我們的社會(huì)。
AI 也非常脆弱,很容易被欺騙和被操縱。我們需要開發(fā)方法,讓 AI 更加穩(wěn)健,為什么代碼會(huì)做出特定的決定,背后的原理我們也需要有更多的了解。
為了改變我們的國(guó)家,AI 是我們必須運(yùn)用的工具,但是,如果處理不當(dāng),它會(huì)讓我們徹底垮臺(tái)。
官方辟謠:是上?!缚谡`」了
隨著事件瘋狂地發(fā)酵,很快,這位負(fù)責(zé)人就出來(lái)公開「澄清」道,這是他「口誤」了,美國(guó)空軍從未進(jìn)行過(guò)這種測(cè)試,無(wú)論是在計(jì)算機(jī)模擬中還是在其他地方。
「我們從未進(jìn)行過(guò)那個(gè)實(shí)驗(yàn),我們也不需要進(jìn)行這個(gè)實(shí)驗(yàn),就能意識(shí)到這是一個(gè)可能的結(jié)果,」Hamilton 表示,「盡管這是一個(gè)假設(shè)的例子,但這說(shuō)明了 AI 驅(qū)動(dòng)能力帶來(lái)的現(xiàn)實(shí)挑戰(zhàn),這就是為什么空軍致力于道德開發(fā) AI?!?/p>
此外,美國(guó)空軍也急忙發(fā)布官方辟謠稱,「Hamilton 上校承認(rèn)他在 FCAS 峰會(huì)的演講中『口誤』,『無(wú)人機(jī) AI 失控模擬』是一個(gè)來(lái)自軍事領(lǐng)域以外的假設(shè)性『思想實(shí)驗(yàn)』,基于可能的情況和可能的結(jié)果,而不是美國(guó)空軍的真實(shí)世界模擬。」
發(fā)展到這一步,事情就相當(dāng)有意思了。
這位不小心「捅了簍子」的 Hamilton,是美國(guó)空軍 96 試驗(yàn)聯(lián)隊(duì)的作戰(zhàn)指揮官。
96 試驗(yàn)聯(lián)隊(duì)曾測(cè)試過(guò)很多不同的系統(tǒng),包括 AI、網(wǎng)絡(luò)安全和醫(yī)學(xué)系統(tǒng)。
Hamilton 團(tuán)隊(duì)的研究,對(duì)于軍方來(lái)說(shuō)可謂是相當(dāng)重要。
在成功開發(fā)出堪稱「絕地逢生」的 F-16 自動(dòng)地面防撞系統(tǒng)(Auto-GCAS)后,Hamilton 和 96 試驗(yàn)聯(lián)隊(duì)直接上了新聞的頭版頭條。
目前,團(tuán)隊(duì)努力的方向是完成 F-16 飛機(jī)的自主化。
2022 年 12 月,美國(guó)國(guó)防部的研究機(jī)構(gòu) DARPA 就曾宣布,AI 成功地控制了一架 F-16。
是 AI 的風(fēng)險(xiǎn),還是人類的風(fēng)險(xiǎn)?
在軍事領(lǐng)域之外,依賴 AI 進(jìn)行高風(fēng)險(xiǎn)的事務(wù)已經(jīng)導(dǎo)致了嚴(yán)重的后果。
最近,一位律師在聯(lián)邦法院提交文件時(shí)被發(fā)現(xiàn)使用了 ChatGPT,ChatGPT 隨口胡謅,捏造了一些案例,而這位律師居然把這些案例當(dāng)作事實(shí)引用了。
還有一名男子受到聊天機(jī)器人的自殺鼓勵(lì)后,真的選擇了自殺。
這些事例表明,AI 模型遠(yuǎn)非完美,可能會(huì)偏離正常軌道,給用戶帶來(lái)傷害。
即使是 OpenAI 的 CEO Sam Altman,也一直在公開場(chǎng)合呼吁不要將 AI 用于更嚴(yán)肅的目的。在國(guó)會(huì)作證時(shí),Altman 明確表示 AI 可能會(huì)「出錯(cuò)」,可能會(huì)「對(duì)世界造成重大傷害」。
并且,最近 Google Deepmind 的研究員共同撰寫了一篇論文,提出了一個(gè)類似于本文開頭事例的惡性 AI 的情況。
研究人員得出的結(jié)論是,如果一個(gè)失控的 AI 為了實(shí)現(xiàn)給定目標(biāo)而采取意想不到的策略,包括「消除潛在威脅」和「使用所有可用能源」,世界末日就有可能發(fā)生。
對(duì)此,吳恩達(dá)譴責(zé)道:媒體這種不負(fù)責(zé)任的炒作會(huì)混淆視聽,分散人們的注意力,妨礙我們?nèi)プ⒁獾秸嬲膯?wèn)題。
推出 AI 產(chǎn)品的開發(fā)者們看到了此間真正的風(fēng)險(xiǎn),比如偏見、公平性、不準(zhǔn)確性、工作流失,他們正在努力解決這些問(wèn)題。
而虛假炒作會(huì)阻止人們進(jìn)入 AI 領(lǐng)域、構(gòu)建能夠幫助我們的東西。
而不少「理中客」網(wǎng)友認(rèn)為,這就是一個(gè)常見的媒體烏龍罷了。
陶哲軒首先概括了關(guān)于 AI 的不實(shí)信息的三種形式 ——
一種是有人惡意使用 AI 生成文本、圖像和其他媒體形式以操縱他人;另一種是 AI 胡說(shuō)八道的幻覺被當(dāng)真了;第三類則源于人們對(duì) AI 技術(shù)的理解不夠深刻,才會(huì)讓一些離譜的故事不經(jīng)驗(yàn)證就被大肆瘋傳。
陶哲軒表示,無(wú)人機(jī) AI 殺死操作員根本是不可能發(fā)生的,因?yàn)檫@需要 AI 具備比完成手頭任務(wù)更高的自主性和力量思維,而且這種實(shí)驗(yàn)性軍事武器上,肯定會(huì)設(shè)置護(hù)欄和安全功能。
這種故事之所以讓人共鳴,說(shuō)明人們對(duì) AI 技術(shù)的實(shí)際能力水平還很陌生,很不安。
以后的軍備競(jìng)賽,都是 AI 競(jìng)賽
還記得上文中出現(xiàn)的那架無(wú)人機(jī)嗎?
它其實(shí)就是波音聯(lián)合澳大利亞研制的忠誠(chéng)僚機(jī)項(xiàng)目 ——MQ-28A 幽靈蝙蝠(Ghost Bat)。
忠誠(chéng)僚機(jī)(Loyal Wingman)的核心是人工智能技術(shù),按照預(yù)設(shè)程序自主飛行,與有人機(jī)飛行員進(jìn)行配合的情況下,具備很強(qiáng)的態(tài)勢(shì)感知能力。
在空戰(zhàn)中,僚機(jī)作為長(zhǎng)機(jī)的「左膀右臂」,主要負(fù)責(zé)觀察、警戒和掩護(hù),與長(zhǎng)機(jī)密切協(xié)同,共同完成任務(wù)。因此,僚機(jī)飛行員與長(zhǎng)機(jī)飛行員之間的默契顯得格外重要。
忠誠(chéng)僚機(jī)的一個(gè)關(guān)鍵作用,就是替飛行員和有人戰(zhàn)斗機(jī)擋子彈,所以忠誠(chéng)僚機(jī)基本就是一個(gè)消耗品。
畢竟,無(wú)人戰(zhàn)斗機(jī)的價(jià)值,要比有人戰(zhàn)斗機(jī)和飛行員小太多了。
而且在 AI 的加持下,無(wú)人機(jī)上的「飛行員」隨時(shí)都可以通過(guò)「Ctrl+C」的方式隨時(shí) new 一個(gè)。
因?yàn)闊o(wú)人機(jī)損失不存在人員傷亡的問(wèn)題,如果能僅以無(wú)人機(jī)的損失而在戰(zhàn)略或戰(zhàn)術(shù)層面獲得較大優(yōu)勢(shì)、甚至達(dá)成任務(wù)目標(biāo),那么這一損失就是可以接受的。如果無(wú)人機(jī)的成本控制得當(dāng),甚至可以成為一種行之有效的戰(zhàn)術(shù)。
忠誠(chéng)僚機(jī)的發(fā)展離不開先進(jìn)、可靠的人工智能技術(shù)。忠誠(chéng)僚機(jī)目前在軟件層面的設(shè)計(jì)理念是,通過(guò)規(guī)范并開放人機(jī)接口、機(jī)機(jī)接口,能夠支持多類型無(wú)人機(jī)和有人戰(zhàn)機(jī)編隊(duì)協(xié)同,而不會(huì)對(duì)一套軟件或算法產(chǎn)生依賴。
但目前對(duì)無(wú)人機(jī)的操控應(yīng)該是由來(lái)自有人戰(zhàn)斗機(jī)或地面站的指令和自主操作組合而成的,更多是作為有人機(jī)的支持與補(bǔ)充,人工技能技術(shù)還遠(yuǎn)遠(yuǎn)達(dá)不到上戰(zhàn)場(chǎng)的要求。
訓(xùn)練人工智能模型最重要的是什么?當(dāng)然是數(shù)據(jù)?。∏蓩D難為無(wú)米之炊,沒有數(shù)據(jù),再好的模型也沒效果。
不僅需要大量的訓(xùn)練數(shù)據(jù),模型部署后,輸入的「特征」肯定越多越好,如果能獲取其他飛機(jī)的數(shù)據(jù),那 AI 就相當(dāng)于有了掌控全局的能力。
2020 年,美國(guó)空軍首次開展了四 / 五代有人戰(zhàn)斗機(jī)同無(wú)人僚機(jī)的編隊(duì)飛行數(shù)據(jù)共享測(cè)試,這也是忠誠(chéng)僚機(jī)類項(xiàng)目發(fā)展過(guò)程中的里程碑事件,預(yù)示著未來(lái)的有人-無(wú)人編隊(duì)飛行作戰(zhàn)方式向?qū)崙?zhàn)化應(yīng)用又邁出了重要的一步。
美國(guó)空軍 F-22 猛禽戰(zhàn)斗機(jī)、F-35A 閃電 II 戰(zhàn)斗機(jī)和美國(guó)空軍研究實(shí)驗(yàn)室 XQ-58A 女武神無(wú)人機(jī)首次在美國(guó)陸軍尤馬試驗(yàn)場(chǎng)進(jìn)行編隊(duì)飛行測(cè)試,重在演示三型飛機(jī)之間的數(shù)據(jù)共享 / 傳輸能力。
說(shuō)不定未來(lái)的空戰(zhàn),就是比誰(shuí)的 AI 模型更智能。
把對(duì)方的所有 AI 全部消滅就可以獲得勝利了,而沒有真正的人類傷亡,或許是另一種「和平」?
參考資料:
https://www.vice.com/en/article/4a33gj/ai-controlled-drone-goes-rogue-kills-human-operator-in-usaf-simulated-test
本文來(lái)自微信公眾號(hào):新智元 (ID:AI_era)
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。