語(yǔ)言模型動(dòng)物園加入新成員 Koala,更符合真實(shí)用戶需求!
自從 Meta 開源 LLaMA 之后,學(xué)術(shù)界內(nèi)各種類 ChatGPT 模型如雨后春筍般開始發(fā)布。
先是斯坦福提出了 70 億參數(shù) Alpaca,緊接著又是 UC 伯克利聯(lián)手 CMU、斯坦福、UCSD 和 MBZUAI 發(fā)布的 130 億參數(shù) Vicuna,在超過(guò) 90% 的情況下實(shí)現(xiàn)了與 ChatGPT 和 Bard 相匹敵的能力。
最近伯克利又發(fā)布了一個(gè)新模型「考拉 Koala」,相比之前使用 OpenAI 的 GPT 數(shù)據(jù)進(jìn)行指令微調(diào),Koala 的不同之處在于使用網(wǎng)絡(luò)獲取的高質(zhì)量數(shù)據(jù)進(jìn)行訓(xùn)練。
博客鏈接:https://bair.berkeley.edu/ blog / 2023/04/03 / koala/
數(shù)據(jù)預(yù)處理代碼:https://github.com/ young-geng / koala_data_pipeline
評(píng)估測(cè)試集:https://github.com/ arnav-gudibande / koala-test-set
模型下載:https://drive.google.com/ drive / folders / 10f7wrlAFoPIy-TECHsx9DKIvbQYunCfl
在發(fā)布的博客文章中,研究人員描述了模型的數(shù)據(jù)集管理和訓(xùn)練過(guò)程,同時(shí)也展示了用戶研究的結(jié)果,將該模型與 ChatGPT 和斯坦福大學(xué)的 Alpaca 模型進(jìn)行了比較。
研究結(jié)果表明,Koala 可以有效地回答各種用戶的查詢,生成的回答往往比 Alpaca 更受歡迎,至少在一半的情況下與 ChatGPT 的效果不相上下。
研究人員希望這次實(shí)驗(yàn)的結(jié)果可以進(jìn)一步推動(dòng)圍繞大型閉源模型相對(duì)于小型公共模型的相對(duì)性能的討論,特別是結(jié)果表明,對(duì)于那些能在本地運(yùn)行的小模型,如果認(rèn)真地收集訓(xùn)練數(shù)據(jù),也可以取得大模型的性能。
這可能意味著,社區(qū)應(yīng)該投入更多的精力來(lái)管理高質(zhì)量的數(shù)據(jù)集,可能比簡(jiǎn)單地增加現(xiàn)有系統(tǒng)的規(guī)模來(lái)說(shuō)更有助于建立更安全、更實(shí)際、更有能力的模型。
需要強(qiáng)調(diào)的是,Koala 只是一個(gè)研究原型,雖然研究人員希望模型的發(fā)布可以提供一個(gè)有價(jià)值的社區(qū)資源,但它仍然在內(nèi)容安全性和可靠性方面存在重大缺陷,不應(yīng)該在研究之外的領(lǐng)域使用。
Koala 系統(tǒng)概覽
大型語(yǔ)言模型發(fā)布后,虛擬助手和聊天機(jī)器人的能力也越來(lái)越強(qiáng),不僅能閑聊,還能寫代碼、寫詩(shī)、故事創(chuàng)作,堪稱無(wú)所不能。
不過(guò)能力最強(qiáng)的那一批語(yǔ)言模型通常都需要海量的計(jì)算資源對(duì)模型進(jìn)行訓(xùn)練,并且還需要大規(guī)模的專用數(shù)據(jù)集,普通人基本上沒(méi)辦法自己訓(xùn)練模型。
換句話說(shuō),語(yǔ)言模型在未來(lái)將由少數(shù)有實(shí)力的組織控制,用戶和研究人員采用付費(fèi)的方式與模型進(jìn)行交互,無(wú)法直接訪問(wèn)模型內(nèi)部來(lái)修改或改進(jìn)。
另一方面,最近幾個(gè)月也有一些組織發(fā)布了功能比較強(qiáng)大的免費(fèi)或部分開源模型,比如 Meta 的 LLaMA,這些模型的能力沒(méi)辦法和那些封閉模型(比如 ChatGPT)相比,但它們的能力在社區(qū)的幫助下一直在迅速提高。
壓力來(lái)到開源社區(qū)這邊:未來(lái)是否可以看到越來(lái)越多圍繞少數(shù)閉源代碼模型的整合?或者是更多使用更小模型架構(gòu)的開放模型?相同架構(gòu)模型的性能是否能接近規(guī)模更大的閉源模型?
雖然開放模型不太可能與閉源模型的規(guī)模相匹配,但使用精心挑選的訓(xùn)練數(shù)據(jù)或許可以使它們接近沒(méi)有微調(diào)過(guò)的 ChatGPT 的表現(xiàn)。
事實(shí)上,在此之前斯坦福大學(xué)發(fā)布的 Alpaca 模型,根據(jù) OpenAI 的 GPT 模型對(duì) LLaMA 的數(shù)據(jù)進(jìn)行微調(diào)的實(shí)驗(yàn)結(jié)果已經(jīng)表明,正確的數(shù)據(jù)可以顯著改善規(guī)模更小的開源模型,這也是伯克利的研究人員開發(fā)和發(fā)布 Koala 模型的初衷,為這個(gè)討論結(jié)果再提供了一個(gè)實(shí)驗(yàn)證明。
Koala 對(duì)從網(wǎng)上獲取的免費(fèi)交互數(shù)據(jù)進(jìn)行了微調(diào),并且特別關(guān)注包括與 ChatGPT 等高性能閉源模型交互的數(shù)據(jù)。
研究人員根據(jù)從網(wǎng)絡(luò)和公共數(shù)據(jù)集中提取的對(duì)話數(shù)據(jù)對(duì) LLaMA 基礎(chǔ)模型進(jìn)行微調(diào),其中包括對(duì)來(lái)自其他大型語(yǔ)言模型的用戶查詢的高質(zhì)量響應(yīng),以及問(wèn)答數(shù)據(jù)集和人類反饋數(shù)據(jù)集,由此訓(xùn)練得到的 Koala-13B 模型展現(xiàn)出了與現(xiàn)有模型相差無(wú)幾的性能。
研究結(jié)果表明,從高質(zhì)量的數(shù)據(jù)集中學(xué)習(xí)可以減輕小模型的一些缺點(diǎn),甚至可能在未來(lái)與大型閉源模型相匹敵的能力,也就意味著,社區(qū)應(yīng)該投入更多的精力來(lái)管理高質(zhì)量的數(shù)據(jù)集,相比簡(jiǎn)單地增加現(xiàn)有模型的尺寸規(guī)模來(lái)說(shuō),更有助于建立更安全、更實(shí)際、更有能力的模型。
通過(guò)鼓勵(lì)研究人員參與 Koala 模型的系統(tǒng)演示,研究人員希望發(fā)現(xiàn)一些意料之外的特點(diǎn)或缺陷,有助于在未來(lái)評(píng)估模型。
數(shù)據(jù)集和訓(xùn)練
建立對(duì)話模型的一個(gè)主要障礙是訓(xùn)練數(shù)據(jù)的管理,包括 ChatGPT、Bard、Bing Chat 和 Claude 在內(nèi)的所有聊天模型都使用了大量人工標(biāo)注構(gòu)建的專用數(shù)據(jù)集。
為了構(gòu)建 Koala,研究人員通過(guò)從網(wǎng)絡(luò)和公共數(shù)據(jù)集中收集對(duì)話數(shù)據(jù)來(lái)組織訓(xùn)練集,數(shù)據(jù)集中的一部分包括用戶在線發(fā)布的大型語(yǔ)言模型(如 ChatGPT)的對(duì)話。
研究人員并沒(méi)有追求盡可能多的抓取網(wǎng)絡(luò)數(shù)據(jù)來(lái)最大化數(shù)據(jù)量,而是專注于收集一個(gè)小型的高質(zhì)量數(shù)據(jù)集,使用公共數(shù)據(jù)集來(lái)回答問(wèn)題、人類反饋 (評(píng)分為正面和負(fù)面) 以及與現(xiàn)有語(yǔ)言模型的對(duì)話。
ChatGPT 蒸餾數(shù)據(jù)
與 ChatGPT 的公共用戶共享對(duì)話(ShareGPT):使用公共 API 收集了大約六萬(wàn)條用戶在 ShareGPT 上分享的對(duì)話。
為了保證數(shù)據(jù)質(zhì)量,研究人員刪除了重復(fù)的 user query,并刪除了所有非英語(yǔ)會(huì)話,最后留下了大約三萬(wàn)條樣本。
人類 ChatGPT 比較語(yǔ)料(HC3):使用來(lái)自 HC3 英語(yǔ)數(shù)據(jù)集的人類和 ChatGPT 回復(fù)結(jié)果,其中包含約六萬(wàn)條人類答案和約 2.4 萬(wàn)個(gè)問(wèn)題的 2.7 萬(wàn)個(gè) ChatGPT 答案,總共得到約 8.7 萬(wàn)條問(wèn)答樣本。
開源數(shù)據(jù)
Open Instruction Generalist(OIG):使用從 LAION 策劃的開放指令通用數(shù)據(jù)集中手動(dòng)選擇的組件子集,包括小學(xué)數(shù)學(xué)指導(dǎo)、詩(shī)歌到歌曲以及情節(jié)-劇本-書籍-對(duì)話數(shù)據(jù)集,總共得到大約 3 萬(wàn)個(gè)樣本。
Stanford Alpaca:包括用于訓(xùn)練斯坦福 Alpaca 模型的數(shù)據(jù)集。
該數(shù)據(jù)集包含大約 5.2 萬(wàn)個(gè)樣本,由 OpenAI 的 text-davinci-003 按照 self-instruct 過(guò)程生成的。
值得注意的是,HC3、 OIG 和 Alpaca 數(shù)據(jù)集是單輪問(wèn)答,而 ShareGPT 數(shù)據(jù)集是多輪對(duì)話。
Anthropic HH:包含人類對(duì)模型輸出的有害性和有益性的評(píng)級(jí)。
該數(shù)據(jù)集包含約 16 萬(wàn)條人類評(píng)估的示例,其中每個(gè)示例由一對(duì)來(lái)自聊天機(jī)器人的回復(fù)組成,其中一個(gè)是人類偏好的,該數(shù)據(jù)集為模型提供了功能和額外的安全保護(hù)。
OpenAI WebGPT:該數(shù)據(jù)集包括總共約 2 萬(wàn)條的對(duì)比,其中每個(gè)示例包括一個(gè)問(wèn)題、一對(duì)模型答案和元數(shù)據(jù),答案由人類根據(jù)自己的偏好進(jìn)行打分。
OpenAI Summarization:包含約 9.3 萬(wàn)條樣例,包含來(lái)自人類的關(guān)于模型生成摘要的反饋,人類評(píng)估者從兩個(gè)選項(xiàng)中選擇了更好的摘要結(jié)果。
當(dāng)使用開源數(shù)據(jù)集時(shí),一些數(shù)據(jù)集可能會(huì)提供兩個(gè)回復(fù),對(duì)應(yīng)于評(píng)定為好或壞 (AnthropicHH、WebGPT、OpenAI 摘要)。
之前的研究結(jié)果證明了條件語(yǔ)言模型對(duì)人類偏好標(biāo)記(有用 / 無(wú)用)的有效性以提高性能,研究人員根據(jù)偏好標(biāo)簽將模型置于正標(biāo)記或負(fù)標(biāo)記上,如果沒(méi)有人類反饋的話,對(duì)數(shù)據(jù)集使用正標(biāo)記。在評(píng)估階段,編寫的 prompt 中包括正標(biāo)記。
Koala 基于開源框架 EasyLM(預(yù)訓(xùn)練、微調(diào)、服務(wù)和評(píng)估各種大型語(yǔ)言模型),使用 JAX / Flax 實(shí)現(xiàn);訓(xùn)練設(shè)備為一臺(tái) Nvidia DGX 服務(wù)器與 8 個(gè) A100 GPU,需要 6 個(gè)小時(shí)訓(xùn)練完成 2 個(gè) epochs。
在公共云計(jì)算平臺(tái)上,預(yù)期訓(xùn)練成本不超過(guò) 100 美元。
初步評(píng)估
在實(shí)驗(yàn)中,研究人員評(píng)估了兩個(gè)模型:Koala-Distill,只使用蒸餾數(shù)據(jù);Koala-All 使用所有的數(shù)據(jù),包括蒸餾和開源數(shù)據(jù)。
實(shí)驗(yàn)的目的是比較模型的性能,并評(píng)估蒸餾和開源數(shù)據(jù)集對(duì)最終模型性能的影響;對(duì) Koala 模型進(jìn)行人類評(píng)估,并將 Koala-All 與 Koala-Distill, Alpaca 和 ChatGPT 進(jìn)行對(duì)比。
Alpaca 測(cè)試集由從 self-isntruct 數(shù)據(jù)集中抽樣的 user prompt 組成,并表示 Alpaca 模型的分布式數(shù)據(jù);為了提供更實(shí)際的評(píng)估協(xié)議,Koala 測(cè)試集包含 180 個(gè)在線發(fā)布的真實(shí)用戶 query,跨越不同的主題,通常是會(huì)話式的,更能代表基于聊天系統(tǒng)的實(shí)際用例,并且為了減少可能的測(cè)試集泄漏,最終從訓(xùn)練集中篩選出 BLEU 得分大于 20% 的查詢。
此外,由于研究團(tuán)隊(duì)都更擅長(zhǎng)英語(yǔ),所以研究人員刪除了非英語(yǔ)和編碼相關(guān)的提示以提供更可靠的標(biāo)注結(jié)果,最后在亞馬遜眾包平臺(tái)上對(duì)大約 100 名標(biāo)注員進(jìn)行一次盲測(cè),在評(píng)分界面為每個(gè)評(píng)分者提供一個(gè)輸入提示和兩個(gè)模型的輸出,然后要求使用與回復(fù)質(zhì)量和正確性相關(guān)的標(biāo)準(zhǔn)來(lái)判斷哪個(gè)輸出更好(允許同樣好)。
在 Alpaca 測(cè)試集中,Koala-All 的表現(xiàn)與 Alpaca 相當(dāng)。
在 Koala 測(cè)試集(包含真實(shí)的 user query)中,Koala-All 所有在將近一半的樣本中比 Alpaca 更好,70% 的案例中超過(guò)或與 Alpaca 同樣好,其中肯定有 Koala 訓(xùn)練集合測(cè)試集相似度更高的原因,所以這個(gè)結(jié)果并不是特別意外。
但是只要這些提示更像這些模型的下游用例,也就意味著 Koala 在類似助手的應(yīng)用中會(huì)表現(xiàn)得更好,表明使用網(wǎng)絡(luò)上發(fā)布的樣例與語(yǔ)言模型進(jìn)行交互,是賦予這些模型有效的指令執(zhí)行能力的有效策略。
比較讓人意外的是,研究人員發(fā)現(xiàn)除了蒸餾數(shù)據(jù) (Koala-All) 之外,對(duì)開源數(shù)據(jù)的訓(xùn)練比僅對(duì) ChatGPT 蒸餾數(shù)據(jù) (Koala-Distill) 的訓(xùn)練表現(xiàn)稍差。
雖然這種差異可能并不顯著,但這一結(jié)果表明,ChatGPT 對(duì)話的質(zhì)量非常高,以至于即使包含兩倍的開源數(shù)據(jù)也不會(huì)獲得顯著的改進(jìn)。
最初的假設(shè)是,Koala-All 應(yīng)該表現(xiàn)得更好一些,因此在所有的評(píng)估中都使用 Koala-All 作為主要的評(píng)估模型,最終可以發(fā)現(xiàn),有效的指令和輔助模型可以從大型語(yǔ)言模型中獲得,只要這些 prompts 能夠代表用戶在測(cè)試階段的多樣性即可。
所以,建立強(qiáng)有力的對(duì)話模式的關(guān)鍵可能更多地在于管理高質(zhì)量的對(duì)話數(shù)據(jù),這些數(shù)據(jù)在用戶查詢方面各不相同,并不能簡(jiǎn)單地將現(xiàn)有數(shù)據(jù)集重新格式化為問(wèn)題和答案。
限制與安全
和其他語(yǔ)言模型一樣,Koala 同樣也有局限性,如果被誤用的話,可能會(huì)對(duì)用戶造成傷害。
研究人員觀察到,Koala 會(huì)產(chǎn)生幻覺,并以非常自信的口吻作出非事實(shí)性的反應(yīng),可能是對(duì)話微調(diào)的結(jié)果,換句話說(shuō),就是較小的模型繼承了較大語(yǔ)言模型的自信風(fēng)格,并沒(méi)有繼承同等水平的事實(shí),在未來(lái)需要重點(diǎn)改進(jìn)。
當(dāng)被誤用時(shí),Koala 的幻覺回復(fù)可能會(huì)促進(jìn)錯(cuò)誤信息、垃圾郵件和其他內(nèi)容的傳播。
考拉能夠以一種自信和令人信服的語(yǔ)調(diào)幻想不準(zhǔn)確的信息,除了幻覺,考拉還有其他聊天機(jī)器人語(yǔ)言模型的不足之處。其中包括:
偏見和刻板印象: 模型繼承了帶有偏見的訓(xùn)練對(duì)話數(shù)據(jù),包括刻板印象、歧視和其他傷害。
缺乏常識(shí): 雖然大型語(yǔ)言模型可以生成看似連貫和語(yǔ)法正確的文本,但它們往往缺乏人們認(rèn)為理所當(dāng)然的常識(shí)知識(shí),這可能導(dǎo)致荒謬或不適當(dāng)?shù)姆磻?yīng)。
有限理解: 大型語(yǔ)言模型可能難以理解對(duì)話的上下文和細(xì)微差別,也很難識(shí)別諷刺或反諷,可能會(huì)導(dǎo)致誤解。
為了解決 Koala 的安全隱患,研究人員在 ShareGPT 和 AnthropicHH 的數(shù)據(jù)集中包含了對(duì)抗性提示,以使模型更加健壯和無(wú)害。
為了進(jìn)一步減少潛在的濫用,還在演示中部署了 OpenAI 的內(nèi)容審核過(guò)濾器來(lái)標(biāo)記和刪除不安全的內(nèi)容。
未來(lái)工作
研究人員希望 Koala 模型能夠成為未來(lái)大型語(yǔ)言模型學(xué)術(shù)研究的一個(gè)有用的平臺(tái):該模型足以展示現(xiàn)代語(yǔ)言模型的諸多功能,同時(shí)又足夠小,可以用更少的計(jì)算量進(jìn)行微調(diào)或使用,未來(lái)的研究方向可能包括:
安全性和一致性: 進(jìn)一步研究語(yǔ)言模型的安全性和更好的與人類意圖的一致性。
模型偏見:更好地理解大型語(yǔ)言模型的偏見、對(duì)話數(shù)據(jù)集中虛假相關(guān)性和質(zhì)量問(wèn)題的存在,以及減輕這種偏差的方法。
理解大型語(yǔ)言模型:因?yàn)?Koala 的推理可以在相對(duì)廉價(jià)的 GPU 上執(zhí)行,可以更好地檢查和理解對(duì)話語(yǔ)言模型的內(nèi)部,使黑盒語(yǔ)言模型更容易理解。
參考資料:
https://bair.berkeley.edu/blog/2023/04/03/koala/
本文來(lái)自微信公眾號(hào):新智元 (ID:AI_era)
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。