“機器人正在接管舊金山”
一批人形機器人在美國舊金山街頭出沒,引得過往行人駐足留觀:
可能還去上了個課,從加州大學伯克利分校校門大搖大擺走出:
路線不對,踩著小碎步,穩步調頭:
或者不裝了,調什么頭,直接倒著走:
在各種場景下都可以看到它們的身影:
于是乎,網友傳出了“機器人正在接管舊金山”的消息
要不是視頻中還有人類出鏡,網友都要懷疑這是不是真的在舊金山:
這就是來自加州大學伯克利分校的人形機器人成果。研究人員提出了使用序列建模和動作預測的Causal Transformer模型。
使得人形機器人可以在室內外各種環境中穩健行走,應對不同地形,甚至還能背個書包,提袋垃圾:
怎么做到的?
此前,盡管一些人形機器人在特定環境下表現良好,但廣泛存在泛化和適應新環境方面的問題。
來自加州大學伯克利分校的研究人員提出了運用Causal Transformer的方法。
這是一種Transformer模型,通過自回歸從觀察-動作歷史信息中預測下一個動作,也就是模型的輸出(預測的動作)只依賴于其輸入(觀察-動作歷史信息)中的先前信息。
具體來說,在處理“觀察-動作對”時,模型會將每個“觀察-動作對”作為一個token,并通過自注意力機制來學習這些token之間的關系。
在自注意力計算中,模型會為每個token分配權重,這些權重反映了在預測當前動作時,序列中其他token的重要性。
由于Causal Transformer限制了自注意力只能考慮前面的token,它能夠捕捉到序列中的因果依賴,即當前動作的決策是基于之前觀察-動作的歷史信息。
通過這種方式,Causal Transformer能夠使機器人在復雜和動態的環境中,在沒有未來信息的情況下做出適應性更強的決策。
訓練階段,研究人員使用強化學習方法,在Isaac Gym模擬器進行大規模并行訓練,模擬了機器人的剛體和接觸動力學。
為了模擬機器人的閉鏈動力學,引入了“虛擬彈簧”模型。在模擬中隨機化機器人的動態屬性、控制參數和環境物理屬性,以及添加噪聲和延遲到觀察中。
從模擬到現實的轉移方面,研究人員在機器人初創公司Agility Robotics提供的高保真度模擬器中驗證策略,該模擬器準確模擬了Digit機器人的動態和物理屬性。
經過實驗,Digit機器人能夠在多種環境中可靠行走,展現出對外部干擾的魯棒性:
以及在不同地形和載荷條件下的適應性:
△左,腳被絆住;右,下坡
順帶保持手臂擺動協調有力,不順拐:
Digit人形機器人
再來介紹一下demo中的這款人形機器人——Digit。
背后公司Agility Robotics,前身為俄勒岡州立大學的Dynamic Robotics Laboratory。2022年,獲亞馬遜投資。
Agility Robotics的主要產品是以鴕鳥等鳥類為發想的雙足步行機器人,主要研發成果包含Cassie、Digit兩個機型。
其中Cassie是只有下半身的雙足機器人:
至于Digit,像是下面這個,已經成為亞馬遜75萬機器人員工中的一員,不過還處于測試階段,負責搬運亞馬遜標志性的黃箱子:
Agility Robotics表示,將在今年向合作伙伴交付第一批Digit,Digit的初步應用包括倉庫和配送中心內的散裝材料處理,預計2025年全面上市。
他們最近還宣布開設了一家新機器人制造工廠RoboFab?,聲稱第一年預計生產數百臺機器人,之后每年產能最多可達10000臺。Digit也將在新工廠中上崗,進行搬運、裝載等工作。
參考鏈接:[1]https://twitter.com/minchoi/status/1749784839824216511[2]https://learning-humanoid-locomotion.github.io/
本站所有文章、數據、圖片均來自互聯網,一切版權均歸源網站或源作者所有。
如果侵犯了你的權益請來信告知我們刪除。郵箱:business@qudong.com