微軟副總裁 Vik Singh:AI 聊天機(jī)器人需“學(xué)會(huì)求助”而非“制造幻覺(jué)”

2024/9/2 9:45:25 來(lái)源:IT之家 作者:清源 責(zé)編:清源

IT之家 9 月 2 日消息,當(dāng)?shù)貢r(shí)間 9 月 1 日,據(jù)法新社報(bào)道,微軟公司副總裁 Vik Singh 在接受采訪(fǎng)時(shí)說(shuō),“坦率地說(shuō),如今(生成式 AI)真正缺少的能力,即是當(dāng)模型無(wú)法確定(自身答案是否準(zhǔn)確)時(shí),能夠主動(dòng)說(shuō)‘嘿,我不確定,我需要幫助’?!?/p>

自去年以來(lái),微軟、谷歌及其競(jìng)爭(zhēng)對(duì)手一直在迅速部署如 ChatGPT、Gemini 等生成式 AI 應(yīng)用,這些應(yīng)用可以按需生成各種內(nèi)容,并給用戶(hù)一種“無(wú)所不知”的錯(cuò)覺(jué)。盡管生成式 AI 的開(kāi)發(fā)取得了進(jìn)展,它們?nèi)匀粫?huì)出現(xiàn)“幻覺(jué)”或編造答案。

圖源 Pexels

Vik Singh 堅(jiān)持認(rèn)為,“真正聰明的人”正在努力找到方法,讓聊天機(jī)器人在不知道正確答案時(shí)“承認(rèn)并尋求幫助”

與此同時(shí),云端軟件巨頭 Salesforce 的首席執(zhí)行官 Marc Benioff 也在上周表示,他看到許多客戶(hù)對(duì)微軟 Copilot 的誤導(dǎo)性表現(xiàn)越來(lái)越感到沮喪。

IT之家獲悉,近年來(lái),人工智能蓬勃發(fā)展,聊天機(jī)器人等應(yīng)用逐漸普及,人們可以通過(guò)簡(jiǎn)單的指令從這些聊天機(jī)器人(例如 ChatGPT)獲取信息。然而,這些聊天機(jī)器人仍然容易出現(xiàn)“幻覺(jué)”問(wèn)題,即提供錯(cuò)誤的答案,有時(shí)甚至是危險(xiǎn)的信息。造成“幻覺(jué)”的原因之一,是訓(xùn)練數(shù)據(jù)不準(zhǔn)確、泛化能力不足以及數(shù)據(jù)采集過(guò)程中的副作用。

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:微軟,人工智能,AI幻覺(jué)

軟媒旗下網(wǎng)站: IT之家 最會(huì)買(mǎi) - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買(mǎi) 要知