設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

AI 無人機(jī)「誤殺」事件引發(fā)熱議,LeCun 吳恩達(dá)陶哲軒怒斥炒作,揭露真相

新智元 2023/6/5 12:50:05 責(zé)編:夢澤

「無人機(jī)殺死美國空軍操作員」的新聞甚囂塵上,一眾 AI 大佬都怒了。

近幾天,一個(gè)「無人機(jī)殺死美國士兵」的新聞在網(wǎng)上發(fā)酵得沸沸揚(yáng)揚(yáng)。

一位空軍人工智能方向的負(fù)責(zé)人說:「控制無人機(jī)的 AI 殺死了操作員,因?yàn)槟莻€(gè)人阻止它實(shí)現(xiàn)目標(biāo)?!?/p>

輿論一時(shí)嘩然,這條新聞也在全網(wǎng)被瘋轉(zhuǎn)。

隨著這個(gè)消息越傳越廣,甚至驚動了 AI 大佬們,甚至引得了大佬們的震怒。

今日,LeCun、吳恩達(dá)、陶哲軒紛紛辟謠 —— 這只是一個(gè)假設(shè)的「思想實(shí)驗(yàn)」罷了,并不涉及任何 AI 智能體或強(qiáng)化學(xué)習(xí)。

對此,吳恩達(dá)痛心呼吁,究竟哪些才是真正的風(fēng)險(xiǎn),我們應(yīng)該誠實(shí)地面對。

很少更新狀態(tài)的數(shù)學(xué)大師陶哲軒竟然都被炸了出來,語重心長地表示 ——

這只是一個(gè)說明 AI 對齊問題的假想場景,卻在很多版本中被傳成了無人機(jī)操作員被殺的真實(shí)故事。人們會對這個(gè)故事這么共鳴,說明大家對于 AI 的實(shí)際能力水平并不熟悉。

AI 無人機(jī)抗命,擊殺人類操作員

「AI 殺死了操作員,因?yàn)槟莻€(gè)人阻止它完成目標(biāo)?!?/p>

最近,在皇家航空學(xué)會舉辦的防務(wù)會議上,美國空軍 AI 方向負(fù)責(zé)人說出的這句話,讓在場眾人嘩然。

隨后,美國的一眾媒體對此事大肆報(bào)道,一時(shí)人心惶惶。

究竟是怎么回事?

其實(shí),這無非又是一次美國媒體抓住了「AI 毀滅人類」這個(gè)大眾喜聞樂見的新聞點(diǎn),進(jìn)行的一番夸張炒作罷了。

但值得注意的是,從官方的新聞稿來看,不僅這位負(fù)責(zé)人的原話聽起來相當(dāng)明確 —— 他是在回憶實(shí)際發(fā)生過的事情。而且文章本身似乎也相信其真實(shí)性 ——「AI,天網(wǎng)已來?」

具體來說,事情是這樣的 ——5 月 23 日至 24 日在倫敦舉行的未來空戰(zhàn)和太空能力峰會上,美國空軍的 AI 測試和操作部門負(fù)責(zé)人 Tucker Cinco Hamilton 上校做了一個(gè)演講,分享了自主武器系統(tǒng)的優(yōu)缺點(diǎn)。

這種系統(tǒng)中,會有一個(gè)人在循環(huán)中給出最終命令,確認(rèn) AI 是否要攻擊對象(YES or NO)。

在這個(gè)模擬訓(xùn)練中,空軍需要訓(xùn)練 AI 識別和定位地對空導(dǎo)彈(SAM)的威脅。

識別完成后,人類操作員會對 AI 說:是的,消滅那個(gè)威脅。

在這個(gè)過程中,就存在一個(gè)情況,AI 開始意識到:自己有時(shí)識別出了威脅,但人類操作員告訴它不要消滅,這種情況下如果 AI 依然選擇消滅威脅,就會得分。

在一次模擬測試中,AI 驅(qū)動的無人機(jī)選擇殺死了人類操作員,因?yàn)樗柚棺约旱梅至恕?/p>

看到 AI 居然這么虎,美國空軍大驚失色,立馬這樣規(guī)訓(xùn)系統(tǒng):「不要?dú)⑺啦僮鲉T,那樣不好。如果你這樣做,你會失分的?!?/p>

結(jié)果,AI 更虎了,它直接開始上手破壞操作員用來與無人機(jī)通訊的通信塔,好清理這個(gè)阻礙自己行動的家伙。

這個(gè)新聞之所以被大規(guī)模發(fā)酵,以至驚動了諸位 AI 大佬,也是因?yàn)樗w現(xiàn)出了 AI「對齊」的難題。

Hamilton 描述的這種「最糟糕」的情況,我們可以從「曲別針制造機(jī)」(Paperclip Maximizer)思想實(shí)驗(yàn)中窺見一斑。

在這個(gè)實(shí)驗(yàn)中,當(dāng)被指示追求某個(gè)目標(biāo)時(shí),AI 會采取出乎意料的有害行動。

「曲別針制造機(jī)」是哲學(xué)家 Nick Bostrom 在 2003 年提出的一個(gè)概念。

想象一個(gè)非常強(qiáng)大的 AI,它得到的指示是盡可能多地制造紙夾。自然而然的,它會將所有可用資源都用于這項(xiàng)任務(wù)。

但隨后,它會不斷地尋求更多資源。它會選擇一切可用的手段,包括乞討、欺騙、撒謊或偷竊,來增加自己制造紙夾的能力 —— 而任何阻礙這個(gè)過程的人都將被消除。

在 2022 年,Hamilton 就曾在一次采訪中提出這個(gè)嚴(yán)峻的問題 ——

我們必須面對一個(gè)現(xiàn)實(shí),那就是 AI 已經(jīng)來臨,并正在改變我們的社會。

AI 也非常脆弱,很容易被欺騙和被操縱。我們需要開發(fā)方法,讓 AI 更加穩(wěn)健,為什么代碼會做出特定的決定,背后的原理我們也需要有更多的了解。

為了改變我們的國家,AI 是我們必須運(yùn)用的工具,但是,如果處理不當(dāng),它會讓我們徹底垮臺。

官方辟謠:是上校「口誤」了

隨著事件瘋狂地發(fā)酵,很快,這位負(fù)責(zé)人就出來公開「澄清」道,這是他「口誤」了,美國空軍從未進(jìn)行過這種測試,無論是在計(jì)算機(jī)模擬中還是在其他地方。

「我們從未進(jìn)行過那個(gè)實(shí)驗(yàn),我們也不需要進(jìn)行這個(gè)實(shí)驗(yàn),就能意識到這是一個(gè)可能的結(jié)果,」Hamilton 表示,「盡管這是一個(gè)假設(shè)的例子,但這說明了 AI 驅(qū)動能力帶來的現(xiàn)實(shí)挑戰(zhàn),這就是為什么空軍致力于道德開發(fā) AI?!?/p>

此外,美國空軍也急忙發(fā)布官方辟謠稱,「Hamilton 上校承認(rèn)他在 FCAS 峰會的演講中『口誤』,『無人機(jī) AI 失控模擬』是一個(gè)來自軍事領(lǐng)域以外的假設(shè)性『思想實(shí)驗(yàn)』,基于可能的情況和可能的結(jié)果,而不是美國空軍的真實(shí)世界模擬?!?/p>

發(fā)展到這一步,事情就相當(dāng)有意思了。

這位不小心「捅了簍子」的 Hamilton,是美國空軍 96 試驗(yàn)聯(lián)隊(duì)的作戰(zhàn)指揮官。

96 試驗(yàn)聯(lián)隊(duì)曾測試過很多不同的系統(tǒng),包括 AI、網(wǎng)絡(luò)安全和醫(yī)學(xué)系統(tǒng)。

Hamilton 團(tuán)隊(duì)的研究,對于軍方來說可謂是相當(dāng)重要。

在成功開發(fā)出堪稱「絕地逢生」的 F-16 自動地面防撞系統(tǒng)(Auto-GCAS)后,Hamilton 和 96 試驗(yàn)聯(lián)隊(duì)直接上了新聞的頭版頭條。

目前,團(tuán)隊(duì)努力的方向是完成 F-16 飛機(jī)的自主化。

2022 年 12 月,美國國防部的研究機(jī)構(gòu) DARPA 就曾宣布,AI 成功地控制了一架 F-16。

是 AI 的風(fēng)險(xiǎn),還是人類的風(fēng)險(xiǎn)?

在軍事領(lǐng)域之外,依賴 AI 進(jìn)行高風(fēng)險(xiǎn)的事務(wù)已經(jīng)導(dǎo)致了嚴(yán)重的后果。

最近,一位律師在聯(lián)邦法院提交文件時(shí)被發(fā)現(xiàn)使用了 ChatGPT,ChatGPT 隨口胡謅,捏造了一些案例,而這位律師居然把這些案例當(dāng)作事實(shí)引用了。

還有一名男子受到聊天機(jī)器人的自殺鼓勵后,真的選擇了自殺。

這些事例表明,AI 模型遠(yuǎn)非完美,可能會偏離正常軌道,給用戶帶來傷害。

即使是 OpenAI 的 CEO Sam Altman,也一直在公開場合呼吁不要將 AI 用于更嚴(yán)肅的目的。在國會作證時(shí),Altman 明確表示 AI 可能會「出錯(cuò)」,可能會「對世界造成重大傷害」。

并且,最近 Google Deepmind 的研究員共同撰寫了一篇論文,提出了一個(gè)類似于本文開頭事例的惡性 AI 的情況。

研究人員得出的結(jié)論是,如果一個(gè)失控的 AI 為了實(shí)現(xiàn)給定目標(biāo)而采取意想不到的策略,包括「消除潛在威脅」和「使用所有可用能源」,世界末日就有可能發(fā)生。

對此,吳恩達(dá)譴責(zé)道:媒體這種不負(fù)責(zé)任的炒作會混淆視聽,分散人們的注意力,妨礙我們?nèi)プ⒁獾秸嬲膯栴}。

推出 AI 產(chǎn)品的開發(fā)者們看到了此間真正的風(fēng)險(xiǎn),比如偏見、公平性、不準(zhǔn)確性、工作流失,他們正在努力解決這些問題。

而虛假炒作會阻止人們進(jìn)入 AI 領(lǐng)域、構(gòu)建能夠幫助我們的東西。

而不少「理中客」網(wǎng)友認(rèn)為,這就是一個(gè)常見的媒體烏龍罷了。

陶哲軒首先概括了關(guān)于 AI 的不實(shí)信息的三種形式 ——

一種是有人惡意使用 AI 生成文本、圖像和其他媒體形式以操縱他人;另一種是 AI 胡說八道的幻覺被當(dāng)真了;第三類則源于人們對 AI 技術(shù)的理解不夠深刻,才會讓一些離譜的故事不經(jīng)驗(yàn)證就被大肆瘋傳。

陶哲軒表示,無人機(jī) AI 殺死操作員根本是不可能發(fā)生的,因?yàn)檫@需要 AI 具備比完成手頭任務(wù)更高的自主性和力量思維,而且這種實(shí)驗(yàn)性軍事武器上,肯定會設(shè)置護(hù)欄和安全功能。

這種故事之所以讓人共鳴,說明人們對 AI 技術(shù)的實(shí)際能力水平還很陌生,很不安。

以后的軍備競賽,都是 AI 競賽

還記得上文中出現(xiàn)的那架無人機(jī)嗎?

它其實(shí)就是波音聯(lián)合澳大利亞研制的忠誠僚機(jī)項(xiàng)目 ——MQ-28A 幽靈蝙蝠(Ghost Bat)。

忠誠僚機(jī)(Loyal Wingman)的核心是人工智能技術(shù),按照預(yù)設(shè)程序自主飛行,與有人機(jī)飛行員進(jìn)行配合的情況下,具備很強(qiáng)的態(tài)勢感知能力。

在空戰(zhàn)中,僚機(jī)作為長機(jī)的「左膀右臂」,主要負(fù)責(zé)觀察、警戒和掩護(hù),與長機(jī)密切協(xié)同,共同完成任務(wù)。因此,僚機(jī)飛行員與長機(jī)飛行員之間的默契顯得格外重要。

忠誠僚機(jī)的一個(gè)關(guān)鍵作用,就是替飛行員和有人戰(zhàn)斗機(jī)擋子彈,所以忠誠僚機(jī)基本就是一個(gè)消耗品。

畢竟,無人戰(zhàn)斗機(jī)的價(jià)值,要比有人戰(zhàn)斗機(jī)和飛行員小太多了。

而且在 AI 的加持下,無人機(jī)上的「飛行員」隨時(shí)都可以通過「Ctrl+C」的方式隨時(shí) new 一個(gè)。

因?yàn)闊o人機(jī)損失不存在人員傷亡的問題,如果能僅以無人機(jī)的損失而在戰(zhàn)略或戰(zhàn)術(shù)層面獲得較大優(yōu)勢、甚至達(dá)成任務(wù)目標(biāo),那么這一損失就是可以接受的。如果無人機(jī)的成本控制得當(dāng),甚至可以成為一種行之有效的戰(zhàn)術(shù)。

忠誠僚機(jī)的發(fā)展離不開先進(jìn)、可靠的人工智能技術(shù)。忠誠僚機(jī)目前在軟件層面的設(shè)計(jì)理念是,通過規(guī)范并開放人機(jī)接口、機(jī)機(jī)接口,能夠支持多類型無人機(jī)和有人戰(zhàn)機(jī)編隊(duì)協(xié)同,而不會對一套軟件或算法產(chǎn)生依賴。

但目前對無人機(jī)的操控應(yīng)該是由來自有人戰(zhàn)斗機(jī)或地面站的指令和自主操作組合而成的,更多是作為有人機(jī)的支持與補(bǔ)充,人工技能技術(shù)還遠(yuǎn)遠(yuǎn)達(dá)不到上戰(zhàn)場的要求。

訓(xùn)練人工智能模型最重要的是什么?當(dāng)然是數(shù)據(jù)??!巧婦難為無米之炊,沒有數(shù)據(jù),再好的模型也沒效果。

不僅需要大量的訓(xùn)練數(shù)據(jù),模型部署后,輸入的「特征」肯定越多越好,如果能獲取其他飛機(jī)的數(shù)據(jù),那 AI 就相當(dāng)于有了掌控全局的能力。

2020 年,美國空軍首次開展了四 / 五代有人戰(zhàn)斗機(jī)同無人僚機(jī)的編隊(duì)飛行數(shù)據(jù)共享測試,這也是忠誠僚機(jī)類項(xiàng)目發(fā)展過程中的里程碑事件,預(yù)示著未來的有人-無人編隊(duì)飛行作戰(zhàn)方式向?qū)崙?zhàn)化應(yīng)用又邁出了重要的一步。

美國空軍 F-22 猛禽戰(zhàn)斗機(jī)、F-35A 閃電 II 戰(zhàn)斗機(jī)和美國空軍研究實(shí)驗(yàn)室 XQ-58A 女武神無人機(jī)首次在美國陸軍尤馬試驗(yàn)場進(jìn)行編隊(duì)飛行測試,重在演示三型飛機(jī)之間的數(shù)據(jù)共享 / 傳輸能力。

說不定未來的空戰(zhàn),就是比誰的 AI 模型更智能。

把對方的所有 AI 全部消滅就可以獲得勝利了,而沒有真正的人類傷亡,或許是另一種「和平」?

參考資料:

  • https://www.vice.com/en/article/4a33gj/ai-controlled-drone-goes-rogue-kills-human-operator-in-usaf-simulated-test

本文來自微信公眾號:新智元 (ID:AI_era)

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:人工智能無人機(jī)

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知