IT之家 2 月 3 日消息,Gitee AI 昨日宣布上線 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B 四個(gè)較小尺寸的 DeepSeek 模型。更值得關(guān)注的是,本次上線的四個(gè)模型均部署在國產(chǎn)沐曦曦云 GPU 上。
與全尺寸 DeepSeek 模型相比,較小尺寸的 DeepSeek 蒸餾版本模型更適合企業(yè)內(nèi)部實(shí)施部署,可以降低落地成本。
同時(shí),這次 Deepseek R1 模型 + 沐曦曦云 GPU + Gitee AI 平臺(tái),更是實(shí)現(xiàn)了從芯片到平臺(tái),從算力到模型全國產(chǎn)研發(fā)。
IT之家注:DeepSeek R1 是一款大型混合專家(MoE)模型,擁有 6710 億個(gè)參數(shù),支持 128000 個(gè) Token 的大輸入上下文長度。
本次部署在沐曦曦云 GPU 上的是四個(gè) DeepSeek R1 蒸餾模型,號(hào)稱以更小參數(shù)量的資源占用,實(shí)現(xiàn)了性能與大參數(shù)模型“旗鼓相當(dāng)”。
目前 Gitee AI 上的 DeepSeek-R1-Distill
系列模型現(xiàn)已面向全體開發(fā)者免費(fèi)使用。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。