IT之家 12 月 14 日消息,距離 POINT1.0 的發(fā)布已經(jīng)過去兩個月的時間,騰訊今天宣布推出 POINTS1.5。
IT之家注意到,POINTS1.5 仍然沿用了 POINTS1.0 中使用的經(jīng)典的 LLaVA 架構,由一個 vision encoder,一個 projector 和一個大語言模型組成。
據(jù)官方介紹,這一代 POINTS 模型,不僅兼顧了 POINTS1.0 中所堅持的效率優(yōu)先的思想,同時極大了增強了模型的性能。
騰訊表示,POINTS1.5-7B 位居全球 10B 以下開源模型的榜首,超越諸如 Qwen2-VL, InternVL2 和 MiniCPM-V-2.5 等業(yè)界領先的模型。
實際應用方面,POINTS1.5 在復雜場景的 OCR,推理能力,關鍵信息提取,Latex 公式提取,數(shù)學,圖片翻譯,物體識別等幾個方面中都有不錯的表現(xiàn)。
參考資料:
Paper: https://huggingface.co/papers/2412.08443
Github: https://github.com/WePOINTS/WePOINTS
HuggingFace: https://huggingface.co/WePOINTS/POINTS-1-5-Qwen-2-5-7B-Chat
廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。