IT之家 9 月 12 日消息,微軟研究院昨日發(fā)布了名為 phi-1.5 的全新預(yù)訓(xùn)練語言模型,共有 13 億個參數(shù),適用于 QA 問答、聊天格式和代碼等等場景。
phi-1.5 采用來自 StackOverflow 平臺關(guān)于 Python 板塊的 Q&A 內(nèi)容、code_contests 中的競爭代碼、合成 Python 教科書,gpt-3.5-turbo-0301 生成等各種數(shù)據(jù)集,此外還包括各種 NLP 合成文本組成的新數(shù)據(jù)源。
微軟表示在測試常識、語言理解和邏輯推理的基準(zhǔn)下,phi-1.5 的表現(xiàn)超出了大部分參數(shù)低于 100 萬的模型。phi-1.5 在 AGIEval 得分上超過了擁有 70 億參數(shù)、來自 Meta 的 llama-2;在帶 LM-Eval Harness 的 GPT4AL 跑分套件中,可以媲美 70 億參數(shù)的 llama-2。
IT之家在此附上鏈接,感興趣的用戶可以點擊閱讀。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。