設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

中國(guó)電信開源 TeleChat-12B 星辰語(yǔ)義大模型,年內(nèi)開源千億級(jí)參數(shù)大模型

2024/4/16 20:47:46 來(lái)源:IT之家 作者:問舟 責(zé)編:問舟
感謝IT之家網(wǎng)友 Snailwang、Louis9998、西窗舊事 的線索投遞!

IT之家 4 月 16 日消息,中國(guó)電信已開源 120 億參數(shù) TeleChat-12B 星辰語(yǔ)義大模型,還表示將于年內(nèi)開源千億級(jí)參數(shù)大模型。

相較 1 月開源的 7B 版本,12 版版本在內(nèi)容、性能和應(yīng)用等方面整體效果提升 30%,其中多輪推理、安全問題等領(lǐng)域提升超 40%。

據(jù)介紹,TeleChat-12B 將 7B 版本 1.5T 訓(xùn)練數(shù)據(jù)提升至 3T,優(yōu)化數(shù)據(jù)清洗、標(biāo)注策略,持續(xù)構(gòu)建專項(xiàng)任務(wù) SFT (監(jiān)督微調(diào)) 數(shù)據(jù),優(yōu)化數(shù)據(jù)構(gòu)建規(guī)范,大大提升數(shù)據(jù)質(zhì)量;同時(shí),基于電信星辰大模型用戶真實(shí)回流數(shù)據(jù),優(yōu)化獎(jiǎng)勵(lì)模型和強(qiáng)化學(xué)習(xí)模型,有效提升模型問答效果。

TeleChat-12B 在模型結(jié)構(gòu)、訓(xùn)練數(shù)據(jù)、訓(xùn)練方法等方面進(jìn)行了改進(jìn),在通用問答和知識(shí)類、代碼類、數(shù)學(xué)類榜單上相比 TeleChat-7B 均有大幅提升。

  • 在模型結(jié)構(gòu)方面,使用小規(guī)模的模型嘗試多種模型結(jié)構(gòu)的組合選擇最優(yōu)結(jié)構(gòu)。相比 TeleChat-7B 模型,TeleChat-12B 模型采用了詞嵌入層與輸出層解耦的結(jié)構(gòu),將詞嵌入層和輸出 lm head 層參數(shù)分開,有助于增強(qiáng)訓(xùn)練穩(wěn)定性和收斂性。

  • 在訓(xùn)練數(shù)據(jù)方面,收集了覆蓋書籍、百科、新聞、政務(wù)、法律、醫(yī)藥、專利、論文、數(shù)學(xué)、代碼等諸多方面的大量中英文數(shù)據(jù);通過優(yōu)化數(shù)據(jù)清洗策略大幅提升數(shù)據(jù)的文本干凈度、觀點(diǎn)無(wú)偏性、內(nèi)容有效性、格式規(guī)范性。

  • 在訓(xùn)練方法方面,使用科學(xué)數(shù)據(jù)配比學(xué)習(xí)與課程學(xué)習(xí)的方法,使用小參數(shù)模型在多種數(shù)據(jù)配比的數(shù)據(jù)上擬合,得到對(duì)各個(gè)數(shù)據(jù)集難度的先驗(yàn)估計(jì);訓(xùn)練過程中每隔一段時(shí)間自動(dòng)化評(píng)估當(dāng)前模型在所有數(shù)據(jù)集上的 loss,以及在評(píng)測(cè)集上的生成效果,動(dòng)態(tài)提升較難學(xué)習(xí)的數(shù)據(jù)集權(quán)重,保證模型在各個(gè)數(shù)據(jù)集上都有較佳的擬合效果。

中國(guó)電信表示,此次開源提供基礎(chǔ)模型以及基于相應(yīng)版本的對(duì)話模型、不僅支持傳統(tǒng)的全量參數(shù)更新還支持 LoRA 等只更新部分參數(shù)的高效微調(diào)方法、支持 Deepspeed 微調(diào)、支持 int8、int4 量化和國(guó)產(chǎn)芯片訓(xùn)練推理,推動(dòng)大模型國(guó)產(chǎn)化進(jìn)程。IT之家附開源地址:

Github 開源地址:

Gitee 地址:

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知