IT之家 6 月 12 日消息,長期以來,人們常常把大語言模型提供的看似合理但錯(cuò)漏百出的答案稱作“AI 幻覺(AI hallucinations)”。然而,來自英國格拉斯哥大學(xué)的三名哲學(xué)研究人員近期提出了不同的看法 ——“AI 幻覺”這樣的描述并不準(zhǔn)確。
當(dāng)?shù)貢r(shí)間 6 月 8 日,《倫理與信息技術(shù)》雜志刊登了三名研究人員的論文。這篇論文指出,聊天機(jī)器人“胡編亂造”回答的行為不應(yīng)被稱為“幻覺”,用“胡說八道(bullshitting)”一詞來描述才更準(zhǔn)確。
研究人員指出,學(xué)習(xí)過心理學(xué)或使用過迷幻類藥物的人都知道,“幻覺”通常被定義為看到、感知到不存在的東西。而在 AI 領(lǐng)域,“幻覺”顯然是一種隱喻,大語言模型根本看不到、感知不到任何東西。AI 并非經(jīng)歷“幻覺”,而是在復(fù)制訓(xùn)練數(shù)據(jù)中的人類語言模式,并不關(guān)心事實(shí)的準(zhǔn)確性。
機(jī)器并非試圖傳達(dá)它們相信或感知到的東西,它們的不準(zhǔn)確性并不是因?yàn)檎`解或幻覺。正如我們所指出的,它們根本不是在試圖傳遞信息,它們是在胡說八道。
研究人員認(rèn)為,AI 模型沒有信念、意圖或理解力,它們的不準(zhǔn)確性不是因?yàn)檎`解或幻覺,而是因?yàn)樗鼈儽辉O(shè)計(jì)用來創(chuàng)建看起來、聽起來都正確的文本,沒有任何“內(nèi)在機(jī)制”來確保事實(shí)的準(zhǔn)確性。
IT之家曾多次報(bào)道過“AI 幻覺”有關(guān)現(xiàn)象。例如最近的“谷歌搜索推薦用戶往披薩里加膠水”,以及馬斯克的 Grok“誤認(rèn)為”自己是 OpenAI 的產(chǎn)品等等。
劍橋詞典(Cambridge Dictionary)去年宣布,2023 年的年度詞匯為“hallucinate”(產(chǎn)生幻覺),原意為似乎看到、聽到、感覺到或聞到“一些不存在的東西”,通常是指用戶在不良健康或者服用藥物狀態(tài)下產(chǎn)生的幻覺。伴隨著 AI 的崛起,hallucinate 延伸為 AI 產(chǎn)生幻覺,生成錯(cuò)誤的信息。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。