IT之家 10 月 10 日消息,上海人工智能實(shí)驗(yàn)室推出首個(gè)圖文混合創(chuàng)作大模型書生?浦語靈筆(InternLM-XComposer)并宣布開源,同時(shí)上線 GitHub、Hugging Face 及魔搭社區(qū)。
據(jù)介紹,浦語靈筆基于書生?浦語大語言模型(InternLM),有著強(qiáng)大的多模態(tài)性能,可接受視覺和語言模態(tài)輸入,還可以“一鍵生成”圖文混合文章。
值得一提的是,研究人員采用 5 個(gè)主流的多模態(tài)大模型評(píng)測對 InternLM-XComposer-VL-7B 的能力進(jìn)行了詳細(xì)測試,包含:
MME Benchmark: 包括 14 個(gè)子任務(wù)的多模態(tài)模型全面評(píng)測,關(guān)注模型的感知(Perception)和認(rèn)知(Recognition)能力;
MMBench: 包括 20 個(gè)能力緯度和使用 ChatGPT 循環(huán)評(píng)估策略的多模態(tài)評(píng)測;
MMBench-CN:簡體中文版本問題和答案的 MMBench 評(píng)測;
Seed-Bench: 提供包括人工標(biāo)注的 1.9 萬道多模態(tài)多選題目的多模態(tài)評(píng)測;
CCBench: 針對中國文化理解的中文多模態(tài)評(píng)測。評(píng)測結(jié)果顯示,在上述 5 項(xiàng)中英文多模態(tài)評(píng)測中,浦語靈筆均體現(xiàn)出卓越性能。
目前,浦語靈筆已開源其中的智能創(chuàng)作和對話(InternLM-XComposer-7B)及多任務(wù)預(yù)訓(xùn)練(InternLM-XComposer-VL-7B)版本,并提供免費(fèi)商用。IT之家附官方地址:
技術(shù)報(bào)告:https://arxiv.org/ abs / 2309.15112
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。