設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

微軟開(kāi)源 OmniParser 純視覺(jué) GUI 智能體:讓 GPT-4V 秒懂屏幕截圖,可操控手機(jī) / 電腦

2024/10/29 10:01:35 來(lái)源:IT之家 作者:故淵 責(zé)編:故淵

IT之家 10 月 29 日消息,科技媒體 marktechpost 于 10 月 24 日發(fā)布博文,報(bào)道稱微軟公司宣布開(kāi)源 OmniParser,是一款解析和識(shí)別屏幕上可交互圖標(biāo)的 AI 工具。

項(xiàng)目背景

傳統(tǒng)的自動(dòng)化方法通常依賴于解析 HTML 或視圖層次結(jié)構(gòu),從而限制了其在非網(wǎng)絡(luò)環(huán)境中的適用性。

而包括 GPT-4V 在內(nèi)的現(xiàn)有的視覺(jué)語(yǔ)言模型(VLMs),并不擅長(zhǎng)解讀復(fù)雜 GUI 元素,導(dǎo)致動(dòng)作定位不準(zhǔn)確。

項(xiàng)目簡(jiǎn)介

微軟為了克服這些障礙,推出了 OmniParser,是一種純視覺(jué)基礎(chǔ)的工具,旨在填補(bǔ)當(dāng)前屏幕解析技術(shù)中的空白。

該工具并不需要依賴額外的上下文數(shù)據(jù),可以理解更復(fù)雜的圖形用戶界面(GUI),是智能 GUI 自動(dòng)化領(lǐng)域的一項(xiàng)令人興奮的進(jìn)展。

OmniParser 結(jié)合可交互區(qū)域檢測(cè)模型、圖標(biāo)描述模型和 OCR 模塊等,不需要 HTML 標(biāo)簽或視圖層次結(jié)構(gòu)等顯式基礎(chǔ)數(shù)據(jù),能夠在桌面、移動(dòng)設(shè)備和網(wǎng)頁(yè)等上跨平臺(tái)工作,提高用戶界面的解析準(zhǔn)確性。

OmniParser 除了識(shí)別屏幕上的元素,還能將這些元素轉(zhuǎn)換成結(jié)構(gòu)化的數(shù)據(jù)。

測(cè)試表現(xiàn)

OmniParser 在多個(gè)基準(zhǔn)測(cè)試中顯示出優(yōu)越的性能。例如,在 ScreenSpot 數(shù)據(jù)集中,其準(zhǔn)確率提高了 73%,顯著超越依賴 HTML 解析的模型。

這一設(shè)計(jì)不僅能生成類似文檔對(duì)象模型(DOM)的結(jié)構(gòu)化表示,還能通過(guò)疊加邊界框和功能標(biāo)簽來(lái)引導(dǎo)語(yǔ)言模型做出更準(zhǔn)確的用戶動(dòng)作預(yù)測(cè)。

同時(shí),GPT-4V 在使用 OmniParser 輸出后,圖標(biāo)的正確標(biāo)記率從 70.5% 提升至 93.8%。這些改進(jìn)表明,OmniParser 能夠有效解決當(dāng)前 GUI 交互模型的根本缺陷。

OmniParser 的發(fā)布不僅拓寬了智能體的應(yīng)用范圍,也為開(kāi)發(fā)者提供了一個(gè)強(qiáng)大的工具,助力創(chuàng)建更智能、更高效的用戶界面驅(qū)動(dòng)智能體。微軟目前已在 Hugging Face 上發(fā)布 OmniParser,普及這一前沿技術(shù),將進(jìn)一步推動(dòng)多模態(tài) AI 的發(fā)展,特別是在無(wú)障礙、自動(dòng)化和智能用戶輔助等領(lǐng)域。

IT之家附上參考地址

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:微軟,AI,開(kāi)源

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知