設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

馬斯克等人呼吁暫停 AI 研究的公開信遭質(zhì)疑,被指簽名造假、歪曲論文

2023/3/31 9:43:52 來源:網(wǎng)易科技 作者:小小 責(zé)編:遠(yuǎn)洋

3 月 31 日消息,特斯拉首席執(zhí)行官埃隆?馬斯克(Elon Musk)、蘋果聯(lián)合創(chuàng)始人史蒂夫?沃茲尼亞克(Steve Wozniak)以及其他上千名 AI 研究人員日前簽署公開信,呼吁暫停研究更先進(jìn)的 AI 技術(shù)。然而,此信遭到許多專家甚至簽名者的質(zhì)疑,被指加劇 AI 炒作、簽名造假以及歪曲論文等。

這封公開信由非營(yíng)利組織“生命未來研究所”(Future of Life Institute) 撰寫,其使命是“減少?gòu)?qiáng)大技術(shù)帶來的全球?yàn)?zāi)難性和生存風(fēng)險(xiǎn)”。具體來說,該研究所專注于減輕人類的長(zhǎng)期“生存”風(fēng)險(xiǎn),比如超級(jí)智能 AI。馬斯克是該組織的支持者,他在 2015 年曾向其捐贈(zèng)了 1000 萬美元。

信中寫道:“只有在我們確信 AI 的影響是積極的、風(fēng)險(xiǎn)是可控的情況下,才應(yīng)該開發(fā)更強(qiáng)大的 AI 系統(tǒng)。因此,我們呼吁所有 AI 實(shí)驗(yàn)室立即暫停至少 6 個(gè)月訓(xùn)練比 GPT-4 更強(qiáng)大的 AI 系統(tǒng)。AI 實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這段時(shí)間,共同開發(fā)和實(shí)施一套高級(jí) AI 設(shè)計(jì)和開發(fā)的共享安全協(xié)議,這些協(xié)議由獨(dú)立的外部專家嚴(yán)格審計(jì)和監(jiān)督?!?/p>

這封信還澄清說:“這并不意味著 AI 發(fā)展總體上處于暫停狀態(tài),只是從危險(xiǎn)的競(jìng)賽退回到具有緊急功能的更大、不可預(yù)測(cè)的黑箱模型?!彼傅氖俏④浐凸雀璧却笮涂萍脊局g的 AI 競(jìng)賽,這兩家公司在過去一年發(fā)布了許多新的 AI 產(chǎn)品。

其他著名的簽名者包括圖像生成器創(chuàng)企 Stability AI 首席執(zhí)行官伊馬德?穆斯塔克(Emad Mostaque)、作家兼歷史學(xué)家尤瓦爾?諾亞?哈拉里(Yuval Noah Harari)和 Pinterest 聯(lián)合創(chuàng)始人埃文?夏普(Evan Sharp)等。也有參與 AI 競(jìng)賽的公司的員工簽名,包括谷歌姊妹公司 DeepMind 和微軟。盡管 OpenAI 開發(fā)并商業(yè)化了 GPT 系列 AI 模型,但沒有人在信上簽名。

盡管經(jīng)過了驗(yàn)證過程,但這封信一開始還是有許多虛假簽名者,包括冒充 OpenAI 首席執(zhí)行官薩姆?阿爾特曼(Sam Altman)、Meta 首席 AI 科學(xué)家雅恩?勒昆(Yann LeCun)的人。之后,生命未來研究所清理了名單,并在驗(yàn)證每個(gè)簽名時(shí)暫停了在信上顯示更多簽名。

然而,這封公開信的發(fā)布已經(jīng)引起了軒然大波,受到許多 AI 研究人員的仔細(xì)審查,包括許多簽名者本人。有些簽名者重新改變了自己的立場(chǎng),有些知名人士的簽名被證明是假的,更多 AI 研究人員和專家則公開對(duì)這封信中的描述和提議的方法表達(dá)了反對(duì)意見。

紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授加里?馬庫(kù)斯(Gary Marcus)說:“這封信并不完美,但其精神是正確的?!蓖瑫r(shí),Stability AI 首席執(zhí)行官穆斯塔克在推特上表示,OpenAI 是一家真正“開放”的 AI 公司,“所以,我不認(rèn)為暫停訓(xùn)練六個(gè)月時(shí)間是最好的主意,也不同意信中的很多觀點(diǎn),但這封信中有些地方的確很有趣。”

AI 專家批評(píng)這封信進(jìn)一步推動(dòng)了“AI 炒作”,但卻沒有列出或呼吁對(duì)當(dāng)今存在的 AI 危害采取具體行動(dòng)。有些人認(rèn)為,這宣揚(yáng)了一種長(zhǎng)期卻有些不符合實(shí)際的觀點(diǎn),這種觀點(diǎn)被批評(píng)為有害和反民主的,因?yàn)樗鼘?duì)超級(jí)富豪更有利,并允許他們?cè)谀承├碛上虏扇〉赖律峡梢傻男袨椤?/p>

華盛頓大學(xué)語言學(xué)系教授、公開信開頭所引用論文的合著者艾米麗?本德爾(Emily M. Bender)在推特上寫道,這封信中“充斥著 AI 炒作”,并濫用了她的研究成果。信中稱:“廣泛的研究表明,具有堪比人類智慧的 AI 系統(tǒng)可能會(huì)對(duì)社會(huì)和人類構(gòu)成重大威脅。”但本德爾反駁說,她在研究中特別指出,這種威脅是指目前的大型語言模型及其在壓迫系統(tǒng)中的使用情況,這比公開信中假設(shè)的未來 AI 威脅要具體得多,也更緊迫。

本德爾繼續(xù)寫道:“我們?cè)?2020 年底發(fā)布了完整論文,指出這種不考慮風(fēng)險(xiǎn)而急于建立更大語言模型的做法存在問題。但風(fēng)險(xiǎn)和危害從來都不是‘AI 過于強(qiáng)大’,相反,它們關(guān)乎權(quán)力集中在人民手中,關(guān)乎重現(xiàn)壓迫體系,關(guān)乎對(duì)信息生態(tài)系統(tǒng)的破壞,關(guān)乎對(duì)自然生態(tài)系統(tǒng)的破壞等。”

AI 初創(chuàng)公司 Hugging Face 的研究科學(xué)家薩莎?盧西奧尼(Sasha Luccioni)在接受采訪時(shí)表示:“公開信在本質(zhì)上是一種誤導(dǎo):讓每個(gè)人都注意到大型語言模型被臆想的力量和危害,并提出非常模糊、幾乎無效的解決方案,而不是在此時(shí)此刻關(guān)注這些危害并解決它們。例如,在涉及 LLM 的培訓(xùn)數(shù)據(jù)和能力時(shí)要求更多的透明度,或者要求立法規(guī)定在哪里和何時(shí)可以使用它們?!?/p>

普林斯頓大學(xué)計(jì)算機(jī)科學(xué)副教授阿爾溫德?納拉亞南 (Arvind Narayanan) 表示,這封公開信充滿了 AI 炒作,“使解決真實(shí)的、正在發(fā)生的 AI 危害變得更加困難”。

公開信中提出了幾個(gè)問題:“我們是否應(yīng)該自動(dòng)化所有工作,包括那些讓人有成就感的工作?我們是否應(yīng)該培養(yǎng)非人類思維,這些思維最終可能會(huì)超過人類智慧并取代我們?我們應(yīng)該冒著失去對(duì)文明控制的風(fēng)險(xiǎn)繼續(xù)開發(fā) AI 嗎?”

對(duì)此,納拉亞南說,這些問題都是“無稽之談”,“荒謬無比”。計(jì)算機(jī)是否會(huì)取代人類并接管人類文明,這是一個(gè)非常遙遠(yuǎn)的問題,是長(zhǎng)期主義思維的一部分,它分散了我們對(duì)當(dāng)前問題的注意力。畢竟,AI 已經(jīng)被整合到人們的工作中,減少了對(duì)某些職業(yè)的需求,而不是一種會(huì)讓我們“過時(shí)”的“非人類思維”。

納拉亞南還稱:“我認(rèn)為,這些可以算是合理的長(zhǎng)期擔(dān)憂,但它們已被反復(fù)提及,轉(zhuǎn)移了人們對(duì)當(dāng)前危害的注意力,包括非常真實(shí)的信息安全和安全風(fēng)險(xiǎn)!而解決這些安全風(fēng)險(xiǎn)將需要我們精誠(chéng)合作。但不幸的是,這封信中的炒作,包括對(duì) AI 能力和事關(guān)人類生存風(fēng)險(xiǎn)的夸大,可能會(huì)導(dǎo)致 AI 模型被更多地束縛,使應(yīng)對(duì)風(fēng)險(xiǎn)變得更加困難?!?/p>

不過,許多公開信的簽字人也進(jìn)行了辯護(hù)。研究機(jī)構(gòu) Mila 創(chuàng)始人兼科學(xué)主任約書亞?本吉奧(Yoshua Bengio)表示,六個(gè)月的暫停時(shí)間對(duì)于包括政府在內(nèi)的治理機(jī)構(gòu)理解、審計(jì)和驗(yàn)證 AI 系統(tǒng)是必要的,可以確保這些系統(tǒng)對(duì)公眾是安全的。他補(bǔ)充說,目前存在危險(xiǎn)的權(quán)力集中,AI 工具有可能破壞民主的穩(wěn)定,“民主價(jià)值觀和開發(fā)這些工具的方式之間存在沖突”。

麻省理工學(xué)院 NSF AI 與基礎(chǔ)交互研究所 (IAIFI) 物理學(xué)教授、未來生命研究所所長(zhǎng)馬克斯?泰格馬克 (Max Tegmark) 表示,最糟糕的情況是,人類將逐漸失去對(duì)文明的控制。他說,目前的風(fēng)險(xiǎn)在于,“我們失去了對(duì)科技公司中一群未經(jīng)選舉產(chǎn)生的權(quán)力人士的控制,他們的影響力太大了。”

這些評(píng)論談到了廣闊的未來,暗示著對(duì)失去文明控制的恐懼,但除了呼吁 6 個(gè)月的暫停期之外,沒有談到任何具體措施。

計(jì)算機(jī)科學(xué)家、分布式 AI 研究所創(chuàng)始人蒂姆尼特?格布魯(Timnit Gebru)在推特上發(fā)帖稱,具有諷刺意味的是,他們呼吁暫停訓(xùn)練比 GPT-4 更強(qiáng)大的 AI 模型,但卻未能解決圍繞 GPT-4 本身的大量擔(dān)憂。

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:AI,人工智能,馬斯克

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知