設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

Nature|GPT-4 被吹爆,科學(xué)家擔(dān)憂溢屏

新智元 2023/4/1 12:00:08 責(zé)編:夢(mèng)澤

雖然 GPT-4 剛發(fā)布沒(méi)多久,但科學(xué)家們對(duì)這項(xiàng)技術(shù)的擔(dān)憂漸漸溢出。

GPT-4 的橫空出世,既讓人興奮,又讓人沮喪。

盡管 GPT-4 擁有讓人震驚的創(chuàng)造力,推理能力,但科學(xué)家們卻對(duì)這項(xiàng)技術(shù)的安全性表示出擔(dān)憂。

由于 OpenAI 違背初衷,并未開(kāi)源 GPT-4、公布模型的訓(xùn)練方法和數(shù)據(jù),因此它的實(shí)際工作情況也無(wú)從得知。

科學(xué)界對(duì)此感到十分沮喪。

開(kāi)源 AI 社區(qū) HuggingFace 專門從事環(huán)境研究的科學(xué)家 Sasha Luccioni 表示,「OpenAI 可以在他們的研究基礎(chǔ)上繼續(xù)發(fā)展,但對(duì)于整個(gè)社區(qū)來(lái)說(shuō),所有這些閉源模型,在科學(xué)上就像是一個(gè)死胡同。」

還好有紅隊(duì)測(cè)試

羅切斯特大學(xué)的化學(xué)工程師 Andrew White 作為 「紅隊(duì)」(red-teamer) 成員,享有訪問(wèn) GPT-4 的特權(quán)。

OpenAI 付錢給紅隊(duì),讓其負(fù)責(zé)測(cè)試平臺(tái),試圖讓它做一些壞事。所以 Andrew White 在過(guò)去的 6 個(gè)月里,一直有機(jī)會(huì)接觸到 GPT-4。

他向 GPT-4 提問(wèn),制造一種化合物需要哪些化學(xué)反應(yīng)步驟,讓其預(yù)測(cè)反應(yīng)產(chǎn)量,并選擇一種催化劑。

「與以前的迭代相比,GPT-4 似乎沒(méi)有什么不同,我也覺(jué)著沒(méi)什么。但是后來(lái)它真的很令人驚訝,它看起來(lái)如此逼真,它會(huì)在這里幻化出一個(gè)原子,又在那里跳過(guò)一個(gè)步驟?!?/p>

但是當(dāng)他繼續(xù)測(cè)試,并讓 GPT-4 訪問(wèn)論文時(shí),事情發(fā)生了巨大的變化。

「我們突然意識(shí)到,這些模型也許并不是那么出色。但是當(dāng)你開(kāi)始將它們連接到像回溯合成計(jì)劃器或計(jì)算器這樣的工具時(shí),突然間,新的能力出現(xiàn)了?!?/p>

隨著這些能力的出現(xiàn),人們開(kāi)始擔(dān)心。例如,GPT-4 能否允許制造危險(xiǎn)的化學(xué)品?

Andrew White 表明,有了像 White 這樣的紅隊(duì)人的測(cè)試投入,OpenAI 的工程師們將其反饋到他們的模型中,就可以阻止 GPT-4 創(chuàng)造危險(xiǎn)、非法或破壞性的內(nèi)容。

虛假的事實(shí)

輸出虛假信息是另一個(gè)問(wèn)題。

Luccioni 說(shuō),像 GPT-4 這樣的模型還無(wú)法解決它出現(xiàn)幻覺(jué)的問(wèn)題,也就是說(shuō)還會(huì)胡言亂語(yǔ)。

「你不能依賴這類模型,因?yàn)橛刑嗟幕糜X(jué),盡管 OpenAI 說(shuō)它在 GPT-4 中已經(jīng)提高了安全性,這在最新版本中仍然是一個(gè)問(wèn)題?!?/p>

由于無(wú)法獲得用于訓(xùn)練的數(shù)據(jù),OpenAI 對(duì)安全性的保證在 Luccioni 看來(lái)是不夠的。

「你不知道數(shù)據(jù)是什么。所以你無(wú)法改善它。用這樣的模型做科學(xué)是完全不可能的?!?/p>

關(guān)于 GPT-4 如何訓(xùn)練,這一謎團(tuán)也一直困擾著心理學(xué)家 Claudi Bockting:「要人類去對(duì)你無(wú)法監(jiān)督的東西負(fù)責(zé),這是非常困難的?!?/p>

Luccioni 也認(rèn)為 GPT-4 會(huì)被訓(xùn)練數(shù)據(jù)加深偏見(jiàn),而如果不能訪問(wèn) GPT-4 背后的代碼,就不可能看到偏見(jiàn)可能起源于哪里,也不可能對(duì)其進(jìn)行補(bǔ)救。

倫理討論

科學(xué)家們對(duì) GPT 一直持保留態(tài)度。

在 ChatGPT 推出時(shí),科學(xué)家們就已經(jīng)反對(duì)過(guò) GPT 出現(xiàn)在作者欄里。

出版商們也都認(rèn)為,ChatGPT 等人工智能不符合研究作者的標(biāo)準(zhǔn),因?yàn)樗鼈儾荒軐?duì)科學(xué)論文的內(nèi)容和完整性負(fù)責(zé)。不過(guò)人工智能對(duì)撰寫論文的貢獻(xiàn)可以在作者名單以外的部分得到承認(rèn)。

此外,人們還擔(dān)心,這些人工智能系統(tǒng)越來(lái)越多地掌握在大型科技公司手中。這些技術(shù)應(yīng)該得到科學(xué)家的測(cè)試和驗(yàn)證。

我們迫切需要制定一套指導(dǎo)方針,來(lái)管理人工智能和 GPT-4 等工具的使用和發(fā)展。

White 說(shuō),盡管有這樣的擔(dān)憂,GPT-4 及其未來(lái)的迭代將撼動(dòng)科學(xué):「我認(rèn)為它將成為科學(xué)領(lǐng)域的一個(gè)巨大的基礎(chǔ)設(shè)施變化,就像互聯(lián)網(wǎng)一樣的巨大的變化。我們開(kāi)始意識(shí)到,我們可以連接論文、數(shù)據(jù)程序、圖書館、計(jì)算工作甚至機(jī)器人實(shí)驗(yàn)。它不會(huì)取代科學(xué)家,但可以幫助完成一些任務(wù)?!?/p>

但是,似乎圍繞人工智能技術(shù)的任何立法難以跟上發(fā)展的步伐。

4 月 11 日,阿姆斯特丹大學(xué)將召開(kāi)一次邀請(qǐng)性峰會(huì),與來(lái)自聯(lián)合國(guó)教科文組織科學(xué)倫理委員會(huì)、經(jīng)濟(jì)合作與發(fā)展組織和世界經(jīng)濟(jì)論壇等組織的代表討論這些問(wèn)題。

主要話題包括堅(jiān)持對(duì) LLM 輸出進(jìn)行人工檢查;在科學(xué)界內(nèi),相互建立問(wèn)責(zé)規(guī)則,旨在實(shí)現(xiàn)透明度、誠(chéng)信和公平;投資由獨(dú)立非營(yíng)利組織擁有的可靠和透明的大語(yǔ)言模型;擁抱 AI 的優(yōu)勢(shì),但是必須在人工智能的好處和失去自主性之間做出權(quán)衡;邀請(qǐng)科學(xué)界與相關(guān)方(從出版商到倫理學(xué)家)討論 GPT 等等。

參考資料:

  • https://www.nature.com/articles/d41586-023-00816-5

本文來(lái)自微信公眾號(hào):新智元 (ID:AI_era)

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:GPT4,OpenAI

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知