設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

字節(jié) Seed 開源 UI-TARS-1.5:基于視覺-語言模型構(gòu)建的多模態(tài)智能體

2025/4/18 7:48:14 來源:IT之家 作者:清源 責編:清源

IT之家 4 月 18 日消息,IT之家從豆包大模型團隊獲悉,UI-TARS-1.5 昨日正式發(fā)布并開源。這是一款基于視覺-語言模型構(gòu)建的開源多模態(tài)智能體,能夠在虛擬世界中高效執(zhí)行各類任務(wù)。

有關(guān)的鏈接如下:

  • GitHub:https://github.com/bytedance/UI-TARS

  • Website:https://seed-tars.com/

  • Arxiv:https://arxiv.org/abs/2501.12326

UI-TARS-1.5 基于字節(jié)此前提出的原生智能體方案 UI-TARS,通過強化學習進一步增強了模型的高階推理能力,使模型能夠在“行動”前先進行“思考”。

該版本的模型中,團隊還展示了一個新的愿景:以游戲為載體來增強基礎(chǔ)模型的推理能力。與數(shù)學、編程等領(lǐng)域相比,游戲更多依賴直觀的、常識性的推理,并較少依賴專業(yè)知識,因此,游戲通常是評估和提升未來模型通用能力的理想測試場景。

據(jù)介紹,UI-TARS 是一個原生 GUI 智能體,具備真實操作電腦和手機系統(tǒng)的能力,同時,還可操控瀏覽器、完成復雜交互任務(wù)。UI-TARS-1.5 能夠?qū)崿F(xiàn)精準 GUI 操作,基于團隊在四個維度的技術(shù)探索:

  • 視覺感知增強:依托大規(guī)模界面截圖數(shù)據(jù),模型可理解元素的語義與上下文,形成精準描述。

  • System 2 推理機制:在動作前生成“思維(thought)”,支持復雜任務(wù)的多步規(guī)劃與決策。

  • 統(tǒng)一動作建模:構(gòu)建跨平臺標準動作空間,通過真實軌跡學習提升動作可控性與執(zhí)行精度。

  • 可自我演化的訓練范式:通過自動化的交互軌跡采集與反思式訓練,模型持續(xù)從錯誤中改進,適應復雜環(huán)境變化。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:字節(jié)跳動,人工智能,智能體

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知