8 月 9 日,OpenAI 近日表示,其新推出的 ChatGPT 語音模式可能導(dǎo)致用戶產(chǎn)生過度的依賴,引發(fā)“情感依賴”問題。這一警告出現(xiàn)在該公司上周發(fā)布的語言模型安全審查的報告中。
ChatGPT 的先進語音模式聽起來不僅流利自然,而且能模仿人類對話中的各種聲音,如笑聲或“嗯”。它還能根據(jù)說話者的語氣判斷其情緒狀態(tài)。有時候,用戶甚至?xí)X得它比朋友還懂自己。
今年早些時候,在推出這一功能后,OpenAI 立即被人們與 2013 年電影《Her》中的 AI 數(shù)字助理相比較。該電影講述的是男主為了逃避現(xiàn)實感情受挫,退到虛擬世界降維愛上 AI,并在得知 AI 女友同時在和 8000 多個人聊天,642 個人談戀愛后徹底破防的故事。
現(xiàn)在,OpenAI 似乎擔(dān)心這個虛構(gòu)的故事可能成為現(xiàn)實。
報告指出,最終,“用戶可能會與 AI 形成社交關(guān)系,減少對人際互動的需求,這可能對孤獨的個體產(chǎn)生慰藉,但亦會影響健康的人際關(guān)系。”報告還補充道,聽到一個聽起來像人類的機器人提供的信息,可能會導(dǎo)致用戶對其信任度過高,而忽視 AI 容易出錯的本質(zhì)。
該報告指出了人工智能領(lǐng)域一個很嚴重的問題:科技公司正在爭先恐后地推出各種 AI 產(chǎn)品,它們可能徹底改變我們的生活方式。但問題是,這些公司在推出這些產(chǎn)品前,并沒有完全弄清楚它們會帶來哪些影響。就像很多新技術(shù)一樣,剛開始大家可能只想到幾個簡單的用法,但用著用著,就會發(fā)現(xiàn)各種意想不到的結(jié)果。比如,一些人已經(jīng)開始與 AI 聊天機器人建立所謂的浪漫關(guān)系,這引起了關(guān)系專家的擔(dān)憂。
目前,OpenAI 表示致力于“安全”地構(gòu)建 AI,并計劃繼續(xù)研究用戶對其工具的“情感依賴”潛力。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。