IT之家 4 月 2 日消息,昆侖萬維集團日前通過官方公眾號宣布,在“天工”大模型發(fā)布一周年之際,天工大模型 3.0 將于 4 月 17 日正式開啟公測,并將同步選擇開源?!疤旃?3.0”采用 4000 億級參數(shù) MoE(混合專家模型),官方稱是全球模型參數(shù)最大、性能最強的 MoE 模型之一,性能超過 Grok 1.0。
據(jù)介紹,相較于上一代“天工 2.0”MoE 大模型,“天工 3.0”在模型語義理解、邏輯推理、以及通用性、泛化性、不確定性知識、學習能力等領域擁有“驚人的”性能提升,其模型技術知識能力提升超過 20%,數(shù)學 / 推理 / 代碼 / 文創(chuàng)能力提升超過 30%。
“天工 3.0”還新增了搜索增強、研究模式、調用代碼及繪制圖表、多次調用聯(lián)網(wǎng)搜索等能力,并針對性地訓練了模型的 Agent 能力。其能夠獨立完成規(guī)劃、調用、組合外部工具及信息,并可完成產業(yè)分析、產品對比等各類復雜需求。
“天工 3.0”號稱全球首個多模態(tài)“超級模型”,集成了 AI 搜索、AI 寫作、AI 長文本閱讀、AI 對話、AI 語音合成、AI 圖片生成、AI 漫畫創(chuàng)作、AI 圖片識別、AI 音樂生成、AI 代碼寫作、AI 表格生成等多項能力,官方稱其為“大模型時代的超級應用”。
據(jù)IT之家此前報道,昆侖萬維去年 10 月開源了百億級大語言模型“天工”Skywork-13B 系列,并配套開源了 600GB、150B Tokens 開源中文數(shù)據(jù)集。
昆侖萬維“天工”Skywork-13B 系列目前包括 130 億參數(shù)的兩大模型:Skywork-13B-Base 模型、Skywork-13B-Math 模型,IT之家附開源地址如下:
Skywork-13B 下載地址(Model Scope):https://modelscope.cn/organization/skywork
Skywork-13B 下載地址(Github):https://github.com/SkyworkAI/Skywork
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。