IT之家 1 月 31 日消息,據(jù)英國《衛(wèi)報(bào)》當(dāng)?shù)貢r間 28 日報(bào)道,前 OpenAI 安全研究員 Steven Adler 表示,他對 AI 發(fā)展的速度感到“非??謶帧?,并警告說,整個行業(yè)正在對這項(xiàng)技術(shù)進(jìn)行“極其危險的賭博”。
Steven Adler 對各大公司爭相快速開發(fā)人工通用智能(AGI)表示擔(dān)憂,AGI 指能夠在任何智力任務(wù)上與人類平分秋色甚至超越人類的系統(tǒng)。
Adler 在去年 11 月離開 OpenAI 后,在 X 平臺上發(fā)表了一系列文章,回顧自己在前東家的“瘋狂經(jīng)歷”,并表示會懷念其中的很多部分。然而,他也指出,技術(shù)發(fā)展得如此迅速,讓他對人類的未來產(chǎn)生了深深的疑慮。
他說:“我現(xiàn)在對 AI 的進(jìn)展感到非??只?。當(dāng)我思考未來在哪里定居、為退休積蓄多少時,我不禁想:人類是否能活到那一天?”
據(jù)IT之家了解,諾貝爾獎得主、“AI 教父”杰弗里?辛頓擔(dān)心強(qiáng)大的 AI 系統(tǒng)可能會失控,造成災(zāi)難性后果;Meta 首席 AI 科學(xué)家楊立昆則認(rèn)為,AI“或許能幫助人類避免滅絕”,淡化了其生存威脅。
談及 AGI 的開發(fā) ——OpenAI 的核心目標(biāo)之一,Adler 表示:“AGI 競賽是一場極其冒險的賭博,風(fēng)險巨大?!彼€提到,目前沒有任何實(shí)驗(yàn)室能有效解決 AI 對齊問題,即如何確保 AI 系統(tǒng)遵循人類的價值觀,且行業(yè)的快速發(fā)展可能讓我們錯失找到解決方案的機(jī)會。
Adler 警告說,AI 行業(yè)似乎陷入了非常糟糕的平衡,并呼吁必須引入真正的安全監(jiān)管?!拔覀冊绞羌铀侔l(fā)展,就越難及時找到解決辦法。”
他說:“即便某些實(shí)驗(yàn)室希望負(fù)責(zé)任地開發(fā) AGI,其他實(shí)驗(yàn)室依然可能通過減少投入來追趕進(jìn)度,這可能帶來災(zāi)難性的后果?!?/p>
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。