IT之家 1 月 28 日消息,就在北京時間今日凌晨,DeepSeek 宣布開源全新的視覺多模態(tài)模型 Janus-Pro-7B,其在 GenEval 和 DPG-Bench 基準測試中擊敗了 Stable Diffusion 和 OpenAI 的 DALL-E 3。
IT之家附地址:
官方對該模型的介紹大意如下:
Janus-Pro 是一種創(chuàng)新的自回歸框架,實現(xiàn)多模態(tài)信息的統(tǒng)一理解與生成。與以往的方法不同,Janus-Pro 通過將視覺編碼過程拆分為多個獨立的路徑,解決了以往框架中的一些局限性,同時仍采用單一的統(tǒng)一變換器架構(gòu)進行處理。
這一解耦方式不僅有效緩解了視覺編碼器在理解和生成過程中可能出現(xiàn)的沖突,還提升了框架的靈活性。
Janus 的表現(xiàn)超越了傳統(tǒng)的統(tǒng)一模型,并且在與任務特定模型的比較中也同樣表現(xiàn)出色。憑借其簡潔、高靈活性和高效性的特點,Janus-Pro 成為下一代統(tǒng)一多模態(tài)模型的有力競爭者。
摘要的大意如下:
Janus-Pro 是一個統(tǒng)一的多模態(tài)大語言模型(MLLM),通過將視覺編碼過程從多模態(tài)理解和生成中解耦來實現(xiàn)更高效的處理。Janus-Pro 是基于 DeepSeek-LLM-1.5b-base/DeepSeek-LLM-7b-base 模型構(gòu)建的。
在多模態(tài)理解任務中,Janus-Pro 采用 SigLIP-L 作為視覺編碼器,支持 384 x 384 像素的圖像輸入。而在圖像生成任務中,Janus-Pro 使用一個來自特定來源的分詞器,降采樣率為 16。
Janus-Pro 是先前工作 Janus 的進階版本。具體來說,Janus-Pro 整合了優(yōu)化的訓練策略、擴展的訓練數(shù)據(jù),以及更大模型規(guī)模的擴展。通過這些改進,Janus-Pro 在多模態(tài)理解和文本到圖像指令遵循能力方面取得了顯著進展,同時還增強了文本到圖像生成的穩(wěn)定性。
據(jù)官方介紹,JanusFlow 引入了一種極簡架構(gòu),它將自回歸語言模型與校正流(一種最先進的生成模型方法)相集成。研究發(fā)現(xiàn),校正流可以直接在大型語言模型框架內(nèi)進行訓練,無需復雜的架構(gòu)調(diào)整。大量實驗表明,JanusFlow 在各自領(lǐng)域內(nèi)取得了與專用模型相當甚至更好的性能,同時在標準基準測試中顯著優(yōu)于現(xiàn)有的統(tǒng)一方法。這項工作代表著朝著更高效、更通用的視覺語言模型邁進了一步。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。