近年來,具身智能熱度飆升,從春晚機器人精彩表演,到被寫入政府工作報告,再到英偉達黃仁勳多次力推,它已成爲AI領域的焦點。具身智能旨在讓機器人像人類一樣,在真實世界中精準感知、靈活應對。
清華大學與螞蟻數科的研究團隊帶來重大突破,他們在ICLR2025發表的論文中提出BodyGen算法框架。這一框架結合強化學習與深度神經網絡技術,能讓機器人短時間內自動演化出適應環境的最優形態及控制策略,實測性能提升60%,且代碼已在GitHub開源。

傳統機器人設計面臨諸多難題,如依賴大量專家知識、針對特定環境需反覆實驗迭代,而形態控制協同設計技術又存在形體搜索空間巨大、形態與控制策略深度耦合等問題。BodyGen框架通過形態設計和環境交互兩個階段,有效化解這些難題。在形態設計階段,利用Transformer(GPT-Style)自迴歸構建和優化機器人形體結構參數;環境交互階段,則藉助Transformer(Bert-Style)處理關節信息,實現與環境的交互反饋。

BodyGen有三大核心技術。形體結構位置編碼器TopoPE如同機器人的“身體感知”系統,幫助AI快速適應形態變化;基於Transformer的MoSAT像“大腦中樞”,負責信息處理和指令發送;特殊的獎勵分配機制,讓AI合理評估設計決策。

在爬行、游泳等10種不同任務環境測試中,BodyGen生成的機器人形態適應性評分比現有最優方法高出60.03%。而且,它參數量僅1.43M,更加輕量級,在資源受限環境優勢顯著。未來,研究團隊將推動其在實際場景應用,BodyGen有望成爲通用具身智能發展的關鍵助力。
地址:https://github.com/GenesisOrigin/BodyGen
