IT之家 3 月 13 日消息,據(jù)外媒 Ars Technica 報道,Anthropic 首席執(zhí)行官達(dá)里奧?阿莫代伊(Dario Amodei)周一提出了一個令人吃驚的觀點,暗示未來的高級 AI 模型可能會被賦予一種“按鈕”,讓它們能夠在遇到不愉快的任務(wù)時選擇退出。
阿莫代伊在采訪中表示:“這是另一個讓我看起來像是瘋了的話題。我認(rèn)為我們至少應(yīng)該考慮一個問題:如果我們正在構(gòu)建這些系統(tǒng),它們能夠像人類一樣執(zhí)行各種任務(wù),并且似乎擁有許多人類的認(rèn)知能力。如果它像鴨子一樣叫、像鴨子一樣走,也許它就是鴨子。”
阿莫代伊的言論是回應(yīng)數(shù)據(jù)科學(xué)家卡門?多明格斯(Carmem Domingues)提出的一個問題,多明格斯詢問為何 Anthropic 公司在 2024 年底聘請了 AI 福利研究員凱爾?費什(Kyle Fish),讓他研究未來的 AI 模型是否可能具備感知能力,或是否應(yīng)該在未來獲得道德上的考慮和保護。
IT之家從報道中獲悉,費什目前正研究 AI 是否能擁有感知能力,以及是否值得享有道德保護這一具有爭議的話題。
阿莫代伊解釋說:“我們正在考慮的一項可能的做法是,當(dāng)我們將模型部署到實際環(huán)境中時,給它們一個按鈕,上面寫著‘我放棄這項工作’,這樣模型就可以按下這個按鈕?!?/p>
其表示,這只是一個非常簡單的偏好框架,假設(shè)模型真的具備自主意識,并且非常討厭這份工作,那么它就可以按下這個按鈕?!叭绻惆l(fā)現(xiàn)模型經(jīng)常按下這個按鈕,做一些非常不愉快的事情,也許你應(yīng)該關(guān)注一下 —— 這并不意味著你完全相信,但至少應(yīng)該留意?!?/p>
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。