IT之家 3 月 7 日消息,據(jù)外媒 Wccftech 當(dāng)?shù)貢r(shí)間 6 日?qǐng)?bào)道,OpenAI 最近向社區(qū)分享了其謹(jǐn)慎、逐步部署 AI 模型的方法,采取分階段發(fā)布的策略,并以 GPT-2 的謹(jǐn)慎發(fā)布為例。然而,這一示例引發(fā)了前 OpenAI 政策研究員 Miles Brundage 的批評(píng),他指責(zé)公司歪曲了 AI 安全的歷史。
OpenAI 發(fā)布的文件闡明了其對(duì) AI 安全和模型部署的態(tài)度。文件中強(qiáng)調(diào),公司在處理現(xiàn)有系統(tǒng)時(shí)始終保持謹(jǐn)慎,并提到 GPT-2 是其謹(jǐn)慎發(fā)布策略的一部分。公司“相信”只有通過(guò)從現(xiàn)有工具中學(xué)習(xí),才能確保未來(lái)系統(tǒng)的安全。
IT之家附文件部分內(nèi)容大意如下:
在一個(gè)不連續(xù)的世界中…… 安全的教訓(xùn)來(lái)自于對(duì)當(dāng)今系統(tǒng)的極度謹(jǐn)慎,尤其是相對(duì)于它們表現(xiàn)出來(lái)的力量,這正是我們對(duì) GPT-2 的方法。我們現(xiàn)在將第一個(gè) AGI 視為逐步增加有用性的系統(tǒng)中的一部分… 在連續(xù)的世界中,確保下一個(gè)系統(tǒng)安全且有益的方式是從當(dāng)前系統(tǒng)中學(xué)習(xí)。
曾任公司政策研究負(fù)責(zé)人多年的 Miles Brundage 堅(jiān)稱,GPT-2 的發(fā)布同樣采取了逐步推進(jìn)的方式,OpenAI 在每個(gè)階段都分享了相關(guān)信息,安全專家也對(duì)公司在處理模型時(shí)的謹(jǐn)慎態(tài)度表示認(rèn)可。他認(rèn)為,GPT-2 的逐步發(fā)布與公司當(dāng)前的逐步部署策略一致,并堅(jiān)信過(guò)去的謹(jǐn)慎并非過(guò)度,而是必要且負(fù)責(zé)任的。
“這篇文章大部分內(nèi)容都很好,我為那些致力于其中所討論的實(shí)質(zhì)性工作的人們點(diǎn)贊。但我非常不滿 / 擔(dān)憂‘AGI 分步實(shí)現(xiàn)而非一蹴而就’這一說(shuō)法,它以令人不安的方式重寫了 GPT-2 的歷史?!?/p>
Brundage 還表達(dá)了對(duì) OpenAI 聲稱 AGI 將通過(guò)逐步發(fā)展而非突發(fā)突破的說(shuō)法的擔(dān)憂。他指出,公司歪曲 GPT-2 發(fā)布?xì)v史并篡改安全歷史的做法令人擔(dān)憂。他還表示,OpenAI 發(fā)布該文件的目的可能是為安全問(wèn)題設(shè)立標(biāo)準(zhǔn),或?qū)⑦@些問(wèn)題視為過(guò)度反應(yīng),可能帶來(lái)巨大的風(fēng)險(xiǎn),尤其是在 AI 系統(tǒng)正在日益進(jìn)步的當(dāng)下。
這并非 OpenAI 第一次因過(guò)度追求進(jìn)步和利潤(rùn)而忽視長(zhǎng)期安全問(wèn)題而受到批評(píng)。像 Brundage 這樣的專家擔(dān)心,如果不對(duì) AI 安全保持謹(jǐn)慎,未來(lái)可能面臨的風(fēng)險(xiǎn)將十分嚴(yán)重。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。