IGOR團隊 投稿
量子位 | 公眾號 QbitAI
讓機械臂模仿人類動作的新方法來了,不怕缺高質(zhì)量機器人數(shù)據(jù)的那種。
微軟提出圖像目標表示(IGOR,Image-GOal Representation),“投喂”模型人類與現(xiàn)實世界的交互數(shù)據(jù)。
IGOR能直接為人類和機器人學習一個統(tǒng)一的動作表示空間,實現(xiàn)跨任務和智能體的知識遷移以及下游任務效果的提升。
要知道,在訓練具身智能領域的基礎模型時,高質(zhì)量帶有標簽的機器人數(shù)據(jù)是保證模型質(zhì)量的關鍵,而直接采集機器人數(shù)據(jù)成本較高。
考慮到互聯(lián)網(wǎng)視頻數(shù)據(jù)中也展示了豐富的人類活動,包括人類是如何與現(xiàn)實世界中的各種物體進行交互的,由此來自微軟的研究團隊提出了IGOR。
究竟怎樣才能學到人類和機器人統(tǒng)一的動作表示呢?
IGOR框架解讀IGOR框架如下所示,包含三個基礎模型:
Latent Action Model、Policy Model和World Model。
具體來說,IGOR先是提出了潛在動作模型LAM(Latent Action Model),將初始狀態(tài)和目標狀態(tài)之間的視覺變化壓縮為低維向量,并通過最小化初始狀態(tài)和動作向量對目標狀態(tài)的重建損失來進行訓練。
這樣一來,具有相似視覺變化的圖像狀態(tài)將具有相似的動作向量,代表了他們在語義空間而非像素空間上的變化。
通過LAM,可以將互聯(lián)網(wǎng)規(guī)模的視頻數(shù)據(jù)轉化為帶有潛在動作標注的數(shù)據(jù),大大擴展了具身智能基礎模型能夠使用的數(shù)據(jù)量。
這個統(tǒng)一的潛在動作空間使團隊能夠在幾乎任意由機器人和人類執(zhí)行的任務上訓練Policy Model和World Model。
通過結合LAM和World Model,IGOR成功地將一個視頻中的物體運動“遷移”到其他視頻中。并且,這些動作實現(xiàn)了跨任務和跨智能體的遷移。
也就是說,用人的行為給機器人做演示,機器人也能做出正確的動作。如下圖所示,LAM得到的潛在動作表示可以同時實現(xiàn)跨任務(用手移動不同物體)和跨智能體(用手的移動指導機械臂的移動)的遷移。
△Latent Action實現(xiàn)跨任務和智能體的遷移
以下是模型架構的具體細節(jié)。
Latent Action ModelLAM的目標是以無監(jiān)督的方式從互聯(lián)網(wǎng)規(guī)模的視頻數(shù)據(jù)中學習和標注潛在動作,即給定視頻幀序列,對于每一對相鄰幀提取潛在動作表示。
為此,LAM模型由一個Inverse Dynamic Model(IDM)和Forward Dynamic Model(FDM)組成。
IDM的從視頻幀序列中提取潛在動作表示,而FDM負責用學到的表示和當前視頻幀來重建接下來的視頻幀。
由于將潛在動作表示限定在較低的維度,因此LAM模型會將兩幀之間語義上的區(qū)別學習到之中。
值得注意的是,這種方式天然保證了學到的潛在動作是具有泛化性的。
如下圖所示, 在未見數(shù)據(jù)集上,LAM學到的相似潛在動作反映了相似的語義,包括打開夾子、機械臂向左移動和關閉夾子,這些潛在動作在不同任務間共享,進而提升下游模型的泛化性。
△Latent Action Model在未見數(shù)據(jù)集上的表現(xiàn)
Foundation World ModelWorld Model的作用是根據(jù)歷史視頻幀和未來多幀的潛在動作表示,生成在歷史幀的基礎上執(zhí)行各個潛在動作之后的未來視頻幀。
為此,研究人員選擇從預訓練的視頻生成模型上進行微調(diào),將條件從文本換成了潛在動作表示和FDM的重建輸出。
在具身智能的相關數(shù)據(jù)集上進行微調(diào)之后,研究人員觀察到World Model可以成功地在給定相同歷史幀時,針對不同的潛在動作表示生成相對應的未來視頻鄭
如下圖所示,此方法可以通過潛在動作和World Model控制不同物體的獨立移動。
△World Model對于給定的不同潛在動作表示時的生成結果
Foundation Policy ModelPolicy Model的目標是在具體的下游任務上,根據(jù)視頻幀和文本指令來預測智能體每一步要采取的動作。
在IGOR中,它的訓練分為了兩個階段。
在第一階段,Policy Model將根據(jù)輸入的視頻幀和文本指令來預測LAM提取出的相應的潛在運動表示,從而建立從視頻幀到通用潛在運動表示的映射。
在第二階段,該模型則會根據(jù)文本指令、視頻幀以及第一階段模型預測出來的潛在動作表示共同預測下游任務上具體的運動標簽。
和現(xiàn)有模型相比,第一階段預測出的潛在動作表示蘊含了完成該任務需要達成的短期目標,豐富了模型的輸入信息,因此提升了最終策略的任務成功率,如下圖所示。
△Policy Model在下游機器人任務上的表現(xiàn)
在相同的場景下給定不同的文本指令,研究人員也驗證了Policy Model的有效性,即模型可以根據(jù)不同的指令生成相應的潛在動作表示,進而通過World Model模擬執(zhí)行相應的指令。
△Policy Model和World Model對于不同文本指令的生成結果
總的來說,IGOR提出了通過大量人類和機器人視頻預訓練學習動作表示并泛化到不同任務和智能體的新方法。通過從大量視頻中學到的動作表示,IGOR可以實現(xiàn)機器人輕松模仿人類動作,進而實現(xiàn)更通用的智能體。
項目主頁:https://aka.ms/project-igor論文:https://aka.ms/project-igor-paper