設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

AI 胡編亂造怎么辦,OpenAI 稱找到解決“幻覺”方法

2023/6/1 7:02:48 來源:鳳凰科技 作者:簫雨 責(zé)編:遠(yuǎn)洋
感謝IT之家網(wǎng)友 肖戰(zhàn)割割 的線索投遞!

《AI 前哨》北京時(shí)間 6 月 1 日消息,ChatGPT 開發(fā)商 OpenAI 周三發(fā)布了一份研究論文,闡述了如何解決人工智能 (AI)“幻覺”的新方法。AI 幻覺指的是聊天機(jī)器人用編造的信息進(jìn)行回應(yīng)。

ChatGPT 或谷歌“巴德”(Bard) 這樣的聊天機(jī)器人會(huì)完全捏造信息,表現(xiàn)得好像他們?cè)谔咸喜唤^地講事實(shí),這就是 AI 幻覺。舉個(gè)例子:在谷歌 2 月份為巴德拍攝的宣傳視頻中,這個(gè)聊天機(jī)器人對(duì)詹姆斯?韋伯太空望遠(yuǎn)鏡做出了不真實(shí)的陳述。最近,ChatGPT 在紐約聯(lián)邦法院的一份文件中引用了“虛假”案例,涉案的紐約律師可能面臨制裁。

OpenAI 研究人員在報(bào)告中稱:“即使是最先進(jìn)的模型也容易生成謊言,它們?cè)诓淮_定的時(shí)刻會(huì)表現(xiàn)出捏造事實(shí)的傾向。這些幻覺在需要多步驟推理的領(lǐng)域尤其是個(gè)問題,因?yàn)橐粋€(gè)邏輯錯(cuò)誤就足以破壞一個(gè)更大的解決方案。”

為了對(duì)抗 AI 幻覺,OpenAI 找到了一種潛在新策略:訓(xùn)練 AI 模型在推理出答案的每個(gè)正確步驟上給予自我獎(jiǎng)勵(lì),而不僅僅是等到推理出正確的最終結(jié)論時(shí)才給予獎(jiǎng)勵(lì)。研究人員表示,這種方法被稱為“過程監(jiān)督”,與之相反的是“結(jié)果監(jiān)督”,這可能會(huì)訓(xùn)練出更好的可解釋 AI,因?yàn)檫@種策略鼓勵(lì)模型按照更類似人類的“思考”方式進(jìn)行推理。

“檢測和減輕一個(gè)模型的邏輯錯(cuò)誤或幻覺,是構(gòu)建一致性通用人工智能 (AI) 的關(guān)鍵步驟?!監(jiān)penAI 數(shù)學(xué)論文生成器 (mathgen) 研究員卡爾?科布 (Karl Cobbe) 在接受采訪時(shí)表示。他指出,盡管 OpenAI 并非發(fā)明了過程監(jiān)督方法,但該公司正在推動(dòng)其發(fā)展?!斑@項(xiàng)研究的動(dòng)機(jī)是解決幻覺問題,以使模型在解決具有挑戰(zhàn)性的推理問題方面能力更強(qiáng)?!?/p>

科布說,OpenAI 已經(jīng)發(fā)布了一個(gè)附帶的數(shù)據(jù)集,其中包含 80 萬個(gè)人類標(biāo)注,它們用于訓(xùn)練研究論文中提到的模型。鳳凰網(wǎng)科技《AI 前哨》對(duì)此將持續(xù)關(guān)注。

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知