設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

英偉達(dá)發(fā)布 80 億參數(shù)新 AI 模型:精度、效率高,可在 RTX 工作站上部署

2024/8/23 7:32:00 來源:IT之家 作者:故淵 責(zé)編:故淵

IT之家 8 月 23 日消息,英偉達(dá)于 8 月 21 日發(fā)布博文,發(fā)布了 Mistral-NeMo-Minitron 8B 小語言 AI 模型,具備精度高、計(jì)算效率高等優(yōu)點(diǎn),可在 GPU 加速的數(shù)據(jù)中心、云和工作站上運(yùn)行模型。

英偉達(dá)攜手 Mistral AI 上月發(fā)布開源 Mistral NeMo 12B 模型,在此基礎(chǔ)上英偉達(dá)再次推出更小的 Mistral-NeMo-Minitron 8B 模型,共 80 億個(gè)參數(shù),可以在搭載英偉達(dá) RTX 顯卡的工作站上運(yùn)行。

英偉達(dá)表示通過寬度剪枝(width-pruning)Mistral NeMo 12B,并知識(shí)蒸餾(knowledge distillation)輕度重新訓(xùn)練后獲得 Mistral-NeMo-Minitron 8B,相關(guān)成果發(fā)表在《Compact Language Models via Pruning and Knowledge Distillation》論文中。

剪枝通過去除對(duì)準(zhǔn)確率貢獻(xiàn)最小的模型權(quán)重來縮小神經(jīng)網(wǎng)絡(luò)。在 "蒸餾" 過程中,研究小組在一個(gè)小型數(shù)據(jù)集上重新訓(xùn)練剪枝后的模型,以顯著提高通過剪枝過程而降低的準(zhǔn)確率。

就其規(guī)模而言,Mistral-NeMo-Minitron 8B 在語言模型的九項(xiàng)流行基準(zhǔn)測(cè)試中遙遙領(lǐng)先。這些基準(zhǔn)涵蓋了各種任務(wù),包括語言理解、常識(shí)推理、數(shù)學(xué)推理、總結(jié)、編碼和生成真實(shí)答案的能力。IT之家附上相關(guān)測(cè)試結(jié)果如下:

參考

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:英偉達(dá),AI

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知