IT之家 11 月 16 日消息,谷歌公司近日發(fā)布新聞稿,介紹了小型人工智能模型 Mirasol,可以回答有關(guān)視頻的問題并創(chuàng)造新的記錄。
AI 模型目前很難處理不同的數(shù)據(jù)流,如果要讓 AI 理解視頻,需要整合視頻、音頻和文本等不同模態(tài)的信息,這大大增加了難度。
谷歌和谷歌 Deepmind 的研究人員提出了新的方法,將多模態(tài)理解擴展到長視頻領(lǐng)域。
借助 Mirasol AI 模型,該團隊試圖解決兩個關(guān)鍵挑戰(zhàn):
需要以高頻采樣同步視頻和音頻,但要異步處理標題和視頻描述。
視頻和音頻會生成大量數(shù)據(jù),這會讓模型的容量緊張。
谷歌在 Mirasol 中使用合路器(combiners)和自回歸轉(zhuǎn)換器(autoregressive transformer)模型。
該模型組件會處理時間同步的視頻和音頻信號,然后再將視頻拆分為單獨的片段。
轉(zhuǎn)換器處理每個片段,并學(xué)習(xí)每個片段之間的聯(lián)系,然后使用另一個轉(zhuǎn)換器處理上下文文本,這兩個組件交換有關(guān)其各自輸入的信息。
名為 Combiner 的新穎轉(zhuǎn)換模塊從每個片段中提取通用表示,并通過降維來壓縮數(shù)據(jù)。每個段包含 4 到 64 幀,該模型當前共有 30 億個參數(shù),可以處理 128 到 512 幀的視頻。
在測試中,Mirasol3B 在視頻問題分析方面達到了新的基準,體積明顯更小,并且可以處理更長的視頻。使用包含內(nèi)存的組合器變體,該團隊可以將所需的計算能力進一步降低 18%。
IT之家在此附上 Mirasol 的官方新聞稿,感興趣的用戶可以深入閱讀。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。