IT之家 10 月 27 日消息,OpenAI 當(dāng)?shù)貢r間周四宣布,公司正在組建一個新團隊,以降低與 AI 相關(guān)的“災(zāi)難性風(fēng)險”,將對 AI 可能引發(fā)的重大問題進行跟蹤、評估、預(yù)測和保護。
OpenAI 稱,“我們深信前沿 AI 模型的能力將超過目前最先進的現(xiàn)有模型,并可能造福全人類,但它們也帶來了越來越嚴重的風(fēng)險?!?strong>該團隊將努力減輕核威脅、生物、化學(xué)和放射性威脅等一系列 AI 可能引發(fā)的重大風(fēng)險,以及 AI“自我復(fù)制”等行為帶來的潛在風(fēng)險。
OpenAI 表示,公司需要確保擁有高能力 AI 系統(tǒng)安全所需的理解、基礎(chǔ)設(shè)施。該團隊將由原麻省理工學(xué)院可部署機器學(xué)習(xí)中心主任 Aleksander Madry 領(lǐng)導(dǎo),并將制定、維護一項“風(fēng)險知情開發(fā)政策”,用以概述公司在評估和監(jiān)控 AI 大模型所做的工作。
IT之家此前報道,非營利組織 AI 安全中心于上月底發(fā)表簡短聲明:“將減輕人工智能帶來的滅絕風(fēng)險,放在和流行病、核戰(zhàn)等社會問題同一高度,作為全球優(yōu)先事項推進”,這項 22 字的倡議已得到了包括 OpenAI 首席執(zhí)行官山姆?阿爾特曼在內(nèi)的多位 AI 行業(yè)大佬的支持。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。