IT之家 11 月 20 日消息,DeepSeek 宣布,全新研發(fā)的推理模型 DeepSeek-R1-Lite 預(yù)覽版正式上線。
官方表示,DeepSeek R1 系列模型使用強化學(xué)習(xí)訓(xùn)練,推理過程包含大量反思和驗證,思維鏈長度可達(dá)數(shù)萬字。該系列模型在數(shù)學(xué)、代碼以及各種復(fù)雜邏輯推理任務(wù)上,取得了媲美 OpenAI o1-preview 的推理效果,并為用戶展現(xiàn)了 o1 沒有公開的完整思考過程。
DeepSeek-R1-Lite 預(yù)覽版模型在美國數(shù)學(xué)競賽(AMC)中難度等級最高的 AIME 以及全球頂級編程競賽(codeforces)等評測中,超越了 GPT-4o 等知名模型。
DeepSeek-R1-Lite 的推理過程長,并且包含了大量的反思和驗證。下圖展示了模型在數(shù)學(xué)競賽上的得分與測試所允許思考的長度緊密相關(guān)。
IT之家注意到,DeepSeek-R1-Lite 目前仍處于迭代開發(fā)階段,僅支持網(wǎng)頁使用,暫不支持 API 調(diào)用。DeepSeek-R1-Lite 所使用的也是一個較小的基座模型,無法完全釋放長思維鏈的潛力。
官方稱正式版 DeepSeek-R1 模型將完全開源,并公開技術(shù)報告和部署 API 服務(wù)。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。