設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

通義千問 Qwen 2.5-Max 超大規(guī)模 MoE 模型發(fā)布:號稱優(yōu)于 Deepseek V3 等競品,暫未開源

2025/1/29 3:15:06 來源:IT之家 作者:問舟 責編:問舟
感謝IT之家網(wǎng)友 混沌窺源、光影幻、軟媒用戶1392612 的線索投遞!

IT之家 1 月 29 日消息,新年之際,阿里云公布了其全新的通義千問 Qwen 2.5-Max 超大規(guī)模 MoE 模型,大家可以通過 API 的方式進行訪問,也可以登錄 Qwen Chat 進行體驗,例如直接與模型對話,或者使用 artifacts、搜索等功能。

據(jù)介紹,通義千問 Qwen 2.5-Max 使用超過 20 萬億 token 的預訓練數(shù)據(jù)及精心設計的后訓練方案進行訓練。

性能

阿里云直接對比了指令模型的性能表現(xiàn)(IT之家注:指令模型即我們平常使用的可以直接對話的模型)。對比對象包括 DeepSeek V3、GPT-4o 和 Claude-3.5-Sonnet,結(jié)果如下:

在 Arena-Hard、LiveBench、LiveCodeBench 和 GPQA-Diamond 等基準測試中,Qwen2.5-Max 的表現(xiàn)超越了 DeepSeek V3,同時在 MMLU-Pro 等其他評估中也展現(xiàn)出了極具競爭力的成績。

在基座模型的對比中,由于無法訪問 GPT-4o 和 Claude-3.5-Sonnet 等閉源模型的基座模型,阿里云將 Qwen2.5-Max 與目前領先的開源 MoE 模型 DeepSeek V3、最大的開源稠密模型 Llama-3.1-405B,以及同樣位列開源稠密模型前列的 Qwen2.5-72B 進行了對比。對比結(jié)果如下圖所示:

我們的基座模型在大多數(shù)基準測試中都展現(xiàn)出了顯著的優(yōu)勢。我們相信,隨著后訓練技術(shù)的不斷進步,下一個版本的 Qwen2.5-Max 將會達到更高的水平。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關文章

關鍵詞:阿里云通義千問

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知