開源大模型王座突然易主,居然來自一家小創(chuàng)業(yè)團(tuán)隊(duì),瞬間引爆業(yè)界。
新模型名為 Reflection 70B,使用一種全新訓(xùn)練技術(shù),讓 AI 學(xué)會在推理過程中糾正自己的錯誤和幻覺。
比如最近流行的數(shù) r 測試中,一開始它犯了和大多數(shù)模型一樣的錯誤,但主動在 <反思> 標(biāo)簽中糾正了自己。
在官方評測中,70B 模型全面超越最強(qiáng)開源 Llama 3.1 405B、GPT-4o、Claude 3 Opus、Gemini 1.5 Pro,特別是數(shù)學(xué)基準(zhǔn) GSM8K 上直接刷爆,得分 99.2%。
這個結(jié)果也讓 OpenAI 科學(xué)家、德?lián)?AI 之父 Noam Brown 激情開麥:
GSM8K 得分 99%!是不是可以正式淘汰這個基準(zhǔn)了?
模型剛剛上線網(wǎng)友就把試玩擠爆了,對此 Meta 還主動支援了更多算力。
在網(wǎng)友測試中,Reflection 70B 能回答對 GSM8K 數(shù)據(jù)集中本身答案錯誤的問題:
我向模型提供了 GSM8K 中存在的 5 個“ground_truth”本身就不正確的問題。
模型沒有重復(fù)數(shù)據(jù)集中的錯誤答案,而是全部回答對了,這很令人印象深刻,表明那 99.2% 的準(zhǔn)確率并非來自于記憶測試集!
數(shù)各種 r 都不在話下,連生造詞“drirrrngrrrrrnnn”中有幾個 r 也能被正確數(shù)對。
網(wǎng)友紛紛對小團(tuán)隊(duì)做出的開源超越頂流閉源感到驚訝,現(xiàn)在最強(qiáng)開源模型可以在本地運(yùn)行了。
關(guān)鍵 70B 還只是個開始,官方表示下周還會發(fā)布更大的 Reflection 405B。
預(yù)計(jì) 405B 性能將大幅優(yōu)于 Sonnet 和 GPT-4o。
Reflection 70B 權(quán)重已公開,API 訪問將于今天晚些時候由 Hyperbolic Labs 提供。
模型能自我反思糾正錯誤
目前關(guān)于 Reflection 70B 的更多細(xì)節(jié)如下。
Reflection 70B 能力提升的關(guān)鍵,是采用了一種名為 Reflection-Tuning 的訓(xùn)練方法,它能夠讓模型反思自己生成的文本,在最終確定回應(yīng)前檢測并糾正自身推理中的錯誤。
訓(xùn)練中的數(shù)據(jù)來自使用 GlaiveAI 平臺生成的合成數(shù)據(jù)。
Reflection 70B 基于 Llama 3.1 70B Instruct,可以使用與其它 Llama 模型相同的代碼、pipeline 等從 Reflection Llama-3.1 70B 進(jìn)行采樣。
它甚至使用了標(biāo)準(zhǔn)的 Llama 3.1 聊天格式。
不過,Reflection 70B 引入了一些特殊 tokens,結(jié)構(gòu)化輸出過程。
如下面這個例子所展示的,規(guī)劃過程分為一個獨(dú)立的步驟,這樣做可以提高 CoT 效果,并保持輸出精煉:
模型將從在 <thinking> 和 </thinking> 標(biāo)簽內(nèi)輸出推理開始,一旦對其推理感到滿意,就會在 <output> 和 </output > 標(biāo)簽內(nèi)輸出最終答案。
所以它能夠?qū)⑵鋬?nèi)部思考和推理與最終答案分離。
在 <thinking> 部分,模型可能會輸出一個或多個,這表明模型發(fā)現(xiàn)了其推理中的錯誤,并將在提供最終答案之前嘗試糾正該錯誤。
系統(tǒng)提示如下:
You are a world-class AI system, capable of complex reasoning and reflection. Reason through the query inside tags, and then provide your final response inside tags. If you detect that you made a mistake in your reasoning at any point, correct yourself inside tags.
(你是一個世界級人工智能系統(tǒng),能夠進(jìn)行復(fù)雜的推理和反思。在標(biāo)簽內(nèi)對查詢進(jìn)行推理,然后在標(biāo)簽內(nèi)提供你的最終回應(yīng)。如果你發(fā)現(xiàn)自己在任何時候推理出錯,請?jiān)跇?biāo)簽內(nèi)糾正自己。)
此外值得一提的是,基準(zhǔn)測試中,所有基準(zhǔn)都已通過 LMSys 的 LLM Decontaminator 檢查污染,隔離了 <output> 部分,并單獨(dú)對這一部分進(jìn)行測試。
使用 Reflection 70B 的時候,官方還分享了小 tips:
初步建議參數(shù) temperature 為.7 ,top_p 為.95
為提高準(zhǔn)確性,最好附加“Think carefully.”在 Prompt 末尾
官方還表示,下周會發(fā)布一份報告,詳細(xì)介紹模型訓(xùn)練過程和發(fā)現(xiàn)。
Agent 創(chuàng)業(yè)團(tuán)隊(duì)打造
Reflection 70B 的背后是一支小團(tuán)隊(duì),由 HyperWriteAI 的 CEO Mutt Shumer 帶領(lǐng)。
領(lǐng)英顯示,Mutt Shumer 是一位連續(xù)創(chuàng)業(yè)者,畢業(yè)于美國錫拉丘茲大學(xué),現(xiàn)任 OthersideAI 的聯(lián)合創(chuàng)始人兼 CEO。
OthersideAI 是一家 AI 應(yīng)用公司,致力于通過大規(guī)模 AI 系統(tǒng)開發(fā)全球最先進(jìn)的自動補(bǔ)全工具,也是 HyperWrite 的幕后公司。
HyperWrite 是一個瀏覽器操作 agent,可以像人一樣操作谷歌瀏覽器來完成一系列任務(wù),比如訂披薩:
和 gpt-llm-trainer 一樣,你只需要用文字描述目標(biāo),它就會一邊列步驟,一邊執(zhí)行。
剛推出時號稱“比 AutoGPT 強(qiáng)”。
HyperWrite 還可以在谷歌擴(kuò)展程序中安裝。
另外,Mutt Shumer 高中時期就創(chuàng)立了 Visos,致力于開發(fā)用于醫(yī)療用途的下一代虛擬現(xiàn)實(shí)軟件。
還創(chuàng)立了 FURI,這是一家旨在通過創(chuàng)造高性能產(chǎn)品并以公平的價格銷售它們來顛覆體育用品行業(yè)的公司。
雖然有 Meta 支持,但目前打開試玩,還是:暫時無法訪問。
感興趣的童鞋可以先碼住了~
https://reflection-playground-production.up.railway.app/
參考鏈接:
[1]https://huggingface.co/mattshumer/Reflection-Llama-3.1-70B
[2]https://x.com/mattshumer_/status/1831767014341538166
[3]https://x.com/polynoamial/status/1831798985528635806
[4]https://x.com/degeneratoor/status/1831809610451448196
[5]https://x.com/kimmonismus/status/1831772661296345333
本文來自微信公眾號:量子位(ID:QbitAI),作者:西風(fēng),原標(biāo)題:《開源大模型新王干翻 GPT-4o,新技術(shù)可糾正自己幻覺,數(shù)學(xué) 99.2 分刷爆測試集》
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。