IT之家 8 月 30 日消息,通義千問團(tuán)隊(duì)今天對 Qwen-VL(視覺語言、Vision Language)模型進(jìn)行更新,推出 Qwen2-VL。
Qwen2-VL 的一項(xiàng)關(guān)鍵架構(gòu)改進(jìn)是實(shí)現(xiàn)了動態(tài)分辨率支持(Naive Dynamic Resolution support)。與上一代模型 Qwen-VL 不同,Qwen2-VL 可以處理任意分辨率的圖像,而無需將其分割成塊,從而確保模型輸入與圖像固有信息之間的一致性。這種方法更接近地模仿人類的視覺感知,使模型能夠處理任何清晰度或大小的圖像。
另一個關(guān)鍵架構(gòu)增強(qiáng)是 Multimodal Rotary Position Embedding(M-ROPE)。通過將 original rotary embedding 分解為代表時間和空間(高度和寬度)信息的三個部分,M-ROPE 使 LLM 能夠同時捕獲和集成 1D 文本、2D 視覺和 3D 視頻位置信息。這使 LLM 能夠充當(dāng)多模態(tài)處理器和推理器。
在 7B 規(guī)模下,Qwen2-VL-7B 保留了對圖像、多圖像和視頻輸入的支持,以更具成本效益的模型大小提供“具有競爭力”的性能。
Qwen2-VL-2B 模型針對潛在的移動部署進(jìn)行了優(yōu)化。盡管參數(shù)量只有 2B,但官方表示該模型在圖像、視頻和多語言理解方面表現(xiàn)出色。
IT之家附模型鏈接如下:
Qwen2-VL-2B-Instruct:https://www.modelscope.cn/models/qwen/Qwen2-VL-2B-Instruct
Qwen2-VL-7B-Instruct:https://www.modelscope.cn/models/qwen/Qwen2-VL-7B-Instruct
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。