設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

英國格拉斯哥大學(xué)哲學(xué)研究人員談“AI 幻覺”:用“胡說八道”來形容更準(zhǔn)確

2024/6/12 10:16:59 來源:IT之家 作者:清源 責(zé)編:清源

IT之家 6 月 12 日消息,長期以來,人們常常把大語言模型提供的看似合理但錯(cuò)漏百出的答案稱作“AI 幻覺(AI hallucinations)”。然而,來自英國格拉斯哥大學(xué)的三名哲學(xué)研究人員近期提出了不同的看法 ——“AI 幻覺”這樣的描述并不準(zhǔn)確。

當(dāng)?shù)貢r(shí)間 6 月 8 日,《倫理與信息技術(shù)》雜志刊登了三名研究人員的論文。這篇論文指出,聊天機(jī)器人“胡編亂造”回答的行為不應(yīng)被稱為“幻覺”,用“胡說八道(bullshitting)”一詞來描述才更準(zhǔn)確

研究人員指出,學(xué)習(xí)過心理學(xué)或使用過迷幻類藥物的人都知道,“幻覺”通常被定義為看到、感知到不存在的東西。而在 AI 領(lǐng)域,“幻覺”顯然是一種隱喻,大語言模型根本看不到、感知不到任何東西。AI 并非經(jīng)歷“幻覺”,而是在復(fù)制訓(xùn)練數(shù)據(jù)中的人類語言模式,并不關(guān)心事實(shí)的準(zhǔn)確性。

機(jī)器并非試圖傳達(dá)它們相信或感知到的東西,它們的不準(zhǔn)確性并不是因?yàn)檎`解或幻覺。正如我們所指出的,它們根本不是在試圖傳遞信息,它們是在胡說八道。

研究人員認(rèn)為,AI 模型沒有信念、意圖或理解力,它們的不準(zhǔn)確性不是因?yàn)檎`解或幻覺,而是因?yàn)樗鼈儽辉O(shè)計(jì)用來創(chuàng)建看起來、聽起來都正確的文本,沒有任何“內(nèi)在機(jī)制”來確保事實(shí)的準(zhǔn)確性。

圖源 Pixabay

IT之家曾多次報(bào)道過“AI 幻覺”有關(guān)現(xiàn)象。例如最近的“谷歌搜索推薦用戶往披薩里加膠水”,以及馬斯克的 Grok“誤認(rèn)為”自己是 OpenAI 的產(chǎn)品等等。

劍橋詞典(Cambridge Dictionary)去年宣布,2023 年的年度詞匯為“hallucinate”(產(chǎn)生幻覺),原意為似乎看到、聽到、感覺到或聞到“一些不存在的東西”,通常是指用戶在不良健康或者服用藥物狀態(tài)下產(chǎn)生的幻覺。伴隨著 AI 的崛起,hallucinate 延伸為 AI 產(chǎn)生幻覺,生成錯(cuò)誤的信息。

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:人工智能

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知