北京人形機器人創新中心近日宣布,正式開源其自主研發的具身小腦能力模型XR-1,以及配套的數據訓練工具RoboMIND 2.0和高保真數字資產數據集ArtVIP。這一系列成果標志著國內具身智能領域向“全自主、更實用”方向邁出關鍵一步,為機器人落地工業、商業及家庭場景提供了技術支撐。
XR-1模型作為國內首個通過具身智能國家標準測試的視覺-語言-動作(VLA)大模型,核心突破在于解決了行業長期存在的“感知-執行”割裂問題。通過跨數據源學習、跨模態對齊及跨本體控制技術,其首創的UVMC(多模態視動統一表征)框架實現了視覺信號與動作指令的實時映射。測試數據顯示,搭載該模型的機器人能以人類“條件反射”般的本能完成復雜任務,例如在連續穿越5扇自動門的測試中實現全自主操作,無需人工干預。
在工業場景驗證中,基于XR-1框架優化的輕量級模型展現出顯著優勢。某發動機工廠的實測表明,配備該技術的“具身天工2.0”和“天軼2.0”機器人可自主完成料箱取放、搬運等無人產線作業,任務成功率較傳統方案提升40%。更值得關注的是,通過引入ArtVIP數據集中的1.2萬條觸覺操作數據,機器人在精密分揀任務中的誤差率降低至0.3%,達到行業領先水平。
為構建完整技術生態,北京人形同步升級了智能機器人數據集RoboMIND。新發布的2.0版本包含30余萬條機器人操作軌跡數據,覆蓋工業制造、商業服務、家庭生活等11類場景。其中新增的仿真數據模塊,通過與ArtVIP的1000余個高保真數字孿生物體(如可旋轉座椅、抽屜等)交互訓練,使機器人在未接觸真實物體前即可掌握操作技巧。實驗證明,將仿真數據占比提升至30%后,機器人跨場景任務適應速度提升2倍。
在特種領域應用方面,北京人形已形成多維度突破。與中國電科院合作的高危電力巡檢項目中,搭載XR-1的機器人可自主完成絕緣子檢測、線路故障排查等任務,作業效率較人工提升5倍;與李寧運動科學實驗室聯合開展的跑鞋測試,則通過機器人動態運動數據分析,為運動裝備研發提供量化依據。近期,該中心還與拜耳達成戰略合作,探索具身智能技術在制藥生產中的落地路徑。
據技術團隊介紹,XR-1及相關數據工具已形成完整開源體系,開發者可通過模塊化調用實現快速二次開發。目前,已有超過15萬次下載記錄,衍生出物流分揀、醫療輔助等20余個行業解決方案。隨著合作伙伴網絡擴展至汽車制造、能源化工等領域,具身智能技術的規模化商用進程正在加速。





















