IT之家 12 月 17 日消息,Meta Ray-Ban Meta 智能眼鏡今日迎來 v11 重大更新,為用戶帶來更智能的交互體驗(yàn)。其中,“實(shí)時(shí) AI”(Live AI)功能成為本次更新的最大亮點(diǎn),參與“早期體驗(yàn)計(jì)劃”的用戶將率先體驗(yàn)到這些新功能。
據(jù)IT之家了解,此前的 Meta AI 僅能通過拍攝單張照片并進(jìn)行分析來回應(yīng)“Hey Meta”的詢問,而更新后的“實(shí)時(shí) AI”功能將實(shí)現(xiàn)“持續(xù)觀察用戶所見,并以更自然的方式與用戶對(duì)話”。
在“實(shí)時(shí) AI”會(huì)話期間,眼鏡將實(shí)時(shí)錄制視頻并分析所見內(nèi)容。用戶無需使用“Hey Meta”喚醒詞即可提問,AI 還會(huì)記住用戶之前的提問。用戶可以隨時(shí)打斷 AI 進(jìn)行后續(xù)提問或更改話題,Meta 稱 AI 甚至?xí)谟脩籼釂柷爸鲃?dòng)“提供有用的建議”。
這一功能與谷歌的 Gemini Live 提供的對(duì)話式 AI 功能類似,后者也支持打斷和記憶查詢。但不同的是,Gemini Live 功能需要使用手機(jī),而 Meta 的“實(shí)時(shí) AI”則允許用戶完全解放雙手進(jìn)行提問。
在 2024 年 10 月的 Meta Connect 大會(huì)上,扎克伯格曾演示了使用“實(shí)時(shí) AI”查看衣柜,并詢問哪套服裝最適合以“咆哮的二十年代”為主題的派對(duì)。雖然實(shí)際效果還有待檢驗(yàn),但這一概念無疑是智能眼鏡的一大進(jìn)步。
本次 v11 更新的第二個(gè)重要功能是“實(shí)時(shí)翻譯”。扎克伯格也曾在 Meta Connect 2024 上對(duì)此進(jìn)行了演示。顧名思義,用戶可以用英語與說西班牙語、法語或意大利語的人交談,并通過手機(jī)屏幕查看對(duì)方的回復(fù),或通過 Ray-Ban Meta 眼鏡的揚(yáng)聲器收聽。
v11 更新的最后一個(gè)功能是 Shazam 集成。用戶只需說“Hey Meta,Shazam 這首歌”,即可識(shí)別周圍播放的音樂。
希望立即體驗(yàn)這些功能的用戶需要注冊(cè)“早期體驗(yàn)計(jì)劃”,否則需要等到 2025 年初的正式版本發(fā)布。用戶可以通過 Meta View 應(yīng)用程序的設(shè)置菜單選擇加入“早期體驗(yàn)計(jì)劃”。
近幾個(gè)月,Meta 推出了一系列有用的 AI 更新,例如允許 Meta AI“記住”某些事情(例如停車地點(diǎn)),并拍攝相關(guān)照片以創(chuàng)建稍后提醒的功能。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。