IT之家 11 月 12 日消息,阿里通義千問今日開源 Qwen2.5-Coder 全系列模型,其中 Qwen2.5-Coder-32B-Instruct 成為目前 SOTA 的開源代碼模型,官方號(hào)稱代碼能力追平 GPT-4o。
Qwen2.5-Coder-32B-Instruct 作為本次開源的旗艦?zāi)P?,在多個(gè)流行的代碼生成基準(zhǔn)(如 EvalPlus、LiveCodeBench、BigCodeBench)上都取得了開源模型中的最佳表現(xiàn),官方稱達(dá)到和 GPT-4o 有競爭力的表現(xiàn)。
阿里通義千問此前開源了 1.5B、7B 兩個(gè)尺寸,本次開源帶來 0.5B、3B、14B、32B 四個(gè)尺寸,覆蓋了主流的六個(gè)模型尺寸。
Qwen2.5-Coder 0.5B / 1.5B / 7B / 14B / 32B 模型均采用 Apache 2.0 許可證,3B 模型使用 Research Only 許可。
IT之家附相關(guān)鏈接如下:
Huggingface:https://huggingface.co/collections/Qwen/qwen25-coder-66eaa22e6f99801bf65b0c2f
Modelscope:https://modelscope.cn/organization/qwen
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。