李飛飛團隊的機器人模擬訓(xùn)練場 2.0 版本來了!
這個擁有超過 8000 個交互式場景的模擬環(huán)境 iGibson,再次發(fā)生了進化!
而進化之后的 iGibson 2.0,核心就一句話:
機器人們別抓小球兒了,來做家務(wù)吧!
像是模擬環(huán)境中增加的溫度、濕度、切片等多種物理狀態(tài),就亟待各位機器人來個洗、切、炒菜一條龍服務(wù):
而且這可是外表顏色會發(fā)生改變的真?煮熟。
做完飯之后,還能擦一下臺子上的污漬,整理一下桌面。
再把沒用完的蔬菜放回冰箱,看著它變成“冰凍”狀態(tài)。
人類還能通過 VR 進入模擬環(huán)境,給機器人示范下如何做一個標(biāo)準(zhǔn)的家務(wù):
那么現(xiàn)在,就一起來看看這次版本更新的具體內(nèi)容吧。
新增 5 種物理狀態(tài)
好的,現(xiàn)在我們的機器人選手進入了模擬環(huán)境,它將要做一頓菜。
而這頓菜,將會用到這次 iGibson 2.0 擴展的五個新的物理狀態(tài):
濕潤程度
先從洗菜開始。
洗菜的水來自一種流體模擬系統(tǒng)。
比如下方這個水槽上的水龍頭:
水龍頭作為液滴源產(chǎn)生液滴,然后匯聚在其他容器(盤子)里,或被可浸泡的物體(毛巾)吸收。
在 iGibson 2.0 中,物體吸收的液滴量也就對應(yīng)了物體的濕潤程度。
切割
洗完了,開始切菜。
但這里就碰到了一個難題:
一般來說,模擬環(huán)境中的物體會被假定為具有固定節(jié)點和三角面的三維結(jié)構(gòu),要實現(xiàn)“切割”這一動作并不簡單。
而 iGibson 2.0 則通過更新切片狀態(tài)、保持物體實例的擴展?fàn)顟B(tài)來完成切割動作。
當(dāng)拿著切片工具,并作用了超過物體切片力閾值的力時,切片狀態(tài)就會轉(zhuǎn)為“真”。
這時,模擬器會將會將一個物體替換為兩個:
這兩半“被切開的物體”則會繼承整個對象的擴展物體狀態(tài)(如溫度)。
而這種轉(zhuǎn)換是不可逆的,在之后的模擬時間中,物體會一直保持這種切片狀態(tài)。
溫度
現(xiàn)在,我們要使用這個微波爐來煎魚了:
要讓溫度自然變化,iGibson 2.0 便將 WordNet 層次結(jié)構(gòu)中的對象類別注釋為熱源。
這是 iGibson 2.0 中的一個新規(guī)定:
即每個模擬對象都應(yīng)該是 WordNet 中現(xiàn)有對象類別的一個實例。
而這種語義結(jié)構(gòu)能夠?qū)⑻卣髋c同一類別的所有實例聯(lián)系起來。
好,現(xiàn)在我們要通過這個熱源來改變改變其他物體的溫度。
和現(xiàn)實中的微波爐一樣,用手撥動后受熱物體就會開始升溫。
具體溫度會這樣變化:
△?sim:模擬時間 r:熱源變化率
并且,每個物體在過去達到的最高溫度的歷史值也會被保留。
比如上圖中的魚,在過去曾達到過烹飪或燃燒的溫度。
因此即使在熱源關(guān)閉后,它也會呈現(xiàn)出被烤熟或燒焦的外觀。
也就是說在模擬環(huán)境中如果烤糊了,那也就是真的烤糊了!
清潔程度
清潔程度換句話說,就是含有灰塵污漬的程度。
在 iGibson 2.0 中,對象初始化時可以含有灰塵或污點顆粒,還能采取行為來改變物體的清潔度。
因此,在做完菜后,機器人可以選擇用布擦拭灰塵顆粒:
或者選用濕的工具(擦洗器)來清除來清除污漬:
狀態(tài)切換
iGibson 2.0 為一些對象提供“開”和“關(guān)”兩種狀態(tài)的切換功能,并同時維護其內(nèi)部狀態(tài)和外觀變化。
這種狀態(tài)的切換是通過觸摸一個虛擬固定鏈接 TogglingLink 來完成的。
比如下方這個烤箱,在“開啟”狀態(tài)(右圖)時,其外觀會發(fā)生改變。
于是最后,機器人關(guān)掉器械,圓滿完成了這次任務(wù)。
而這樣一個穩(wěn)固、逼真、便捷的模擬環(huán)境,自然也就意味著機器人能夠進行更多、更復(fù)雜的任務(wù)訓(xùn)練。
基于邏輯謂詞的生成系統(tǒng)
加上前面這些新的物理狀態(tài)后,就足以模擬室內(nèi)環(huán)境中的一系列基本活動。
不過如果用我們平常生活中的自然語言來描述這些狀態(tài)的話,emmm……
就像是重慶人的“微辣”之于外地人一樣,一定會存在個體理解上的語義差異。
因此,iGibson 2.0 以常見的自然語言為基礎(chǔ),定義了一組邏輯謂詞(Logical Predicates):
這組邏輯謂詞將擴展的對象狀態(tài)映射到對象的邏輯狀態(tài)上,以符號化方式描述對象的狀態(tài)。
基于不同的邏輯謂詞,我們會對有效對象進行不同的采樣。
比如,對于像是 Frozen 這種基于物體擴展?fàn)顟B(tài)的謂詞,就對滿足謂詞要求的擴展?fàn)顟B(tài)值進行采樣。
而如果是 OnTopOf 這種運動學(xué)謂詞,就需要結(jié)合射線投射、分析方法等機制,來保證物體處在一個靜止的物理狀態(tài):
那么這時,我們就得到了一個基于邏輯謂詞的生成系統(tǒng)。
在這一系統(tǒng)中,我們只要指定一個邏輯謂詞的列表,就能更加快速、便捷地生成模擬場景。
VR 讓機器人學(xué)著人類做
現(xiàn)在,機器人訓(xùn)練的場地已經(jīng)搭建好了。
我們的最終目標(biāo),是讓機器人通過訓(xùn)練來完成越來越復(fù)雜的任務(wù)。
那么,或許可以讓機器人來看看人類是怎么做的,進而開發(fā)出新的解決方案?
于是,iGibson 2.0 引入了 VR,讓人類也能進入機器人訓(xùn)練的場景中:
團隊根據(jù)通過 OpenVR 與市面上主要的 VR 頭盔兼容,并有一個額外的跟蹤器來控制主體。
通過 iGibson 的 PBR 渲染功能,系統(tǒng)會以最高 90 幀/秒的速度接收從虛擬化身的頭部視角生成的立體圖像。
而通過人類在 VR 環(huán)境中完成任務(wù)的流程,研究人員也能更加便捷地收集到長期、復(fù)雜、雙手動移動操作任務(wù)的演示數(shù)據(jù)。
當(dāng)然,抓小球的經(jīng)典任務(wù)也不能忘。
為了提供更自然的抓取體驗,團隊實現(xiàn)了一個輔助抓?。ˋG)機制:
在用戶通過抓取閾值(50% 驅(qū)動)后,只要物體在手指和手掌之間,就能在手掌和目標(biāo)物體之間形成一個額外的約束。
而最后,李飛飛團隊也表示:
iGibson 是一個完全開源的、面向大型場景交互任務(wù)的模擬環(huán)境。
我們希望 iGibson 2.0 能成為社區(qū)有用的工具,減少為不同任務(wù)創(chuàng)建模擬環(huán)境的負擔(dān),促進具身 AI(embodied AI)研究的解決方案的發(fā)展。
下載地址:
https://github.com/StanfordVL/iGibson
論文地址:
https://arxiv.org/abs/2108.03272
官網(wǎng):
http://svl.stanford.edu/igibson/
參考鏈接:
https://twitter.com/drfeifei/status/1425204811771744263
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。