設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

效果可達 OpenAI 同等模型 96%,國產(chǎn)開源 AI 語言模型 TigerBot 發(fā)布

2023/6/8 11:02:03 來源:IT之家 作者:漾仔(實習) 責編:汪淼

IT 之家 6 月 8 日消息,國產(chǎn)多模態(tài)大語言模型 TigerBot 近日正式發(fā)布,包含 70 億參數(shù)和 1800 億參數(shù)兩個版本,目前已經(jīng)在 GitHub 開源。

▲ 圖源 TigerBot 的 GitHub 頁面

據(jù)悉,TigerBot 帶來的創(chuàng)新主要在于:

  • 提出指令完成監(jiān)督微調(diào)的創(chuàng)新算法提升模型可學習性

  • 運用 ensemble 和 probabilistic modeling 的方法實現(xiàn)可控事實性和創(chuàng)造性

  • 在并行訓練上突破 deep-speed 等主流框架中的內(nèi)存和通信問題

此外,該模型還針對中文語言更不規(guī)則的分布,從 tokenizer 到訓練算法上做了更適合的優(yōu)化。

研究人員陳燁在虎博科技官網(wǎng)表示:“該模型在只使用少量參數(shù)的情況下,就能快速理解人類提出了哪類問題。根據(jù) OpenAI InstructGPT 論文在公開 NLP 數(shù)據(jù)集上的自動評測,TigerBot-7B 已達到 OpenAI 同樣大小模型的綜合表現(xiàn)的 96%。

▲ 圖源 TigerBot 的 GitHub 頁面

據(jù)稱,其中 TigerBot-7B-base 的表現(xiàn)“優(yōu)于 OpenAI 同等可比模型” ,開源代碼包括基本訓練和推理代碼,雙卡推理 180B 模型的量化和推理代碼。數(shù)據(jù)包括 100G 預訓練數(shù)據(jù),監(jiān)督微調(diào) 1G 或 100 萬條數(shù)據(jù)。

IT之家小伙伴們可以在這里找到 GitHub 的開源項目。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:模型,TigerBot

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應(yīng)用 魔方 最會買 要知