
ADVERTISEMENT
NVIDIA於GTC2025春季場發表開源、可完全自訂的GR00T N1機器人基礎模型,並著手開發Newton物理引擎,提供通用人形機器人便捷的開發環境。
雙系統主管反射、思考
NVIDIA執行長黃仁勳於GTC(GPU技術大會)2025春季場開幕演說中講解多項機器人相關的技術成果與研發趨勢,提供強大的開發環境。除了延續先前GR00T機器人開發計劃,也以開源型式推出GR00T N1機器人基礎模型,讓開發者能夠直接使用或根據需求進行微調,大幅降低從零開始訓練模型的門檻。
與訓練自駕車的概念相同,NVIDIA也使用Omniverse數位攣生與Cosmos生成式世界基礎模建立的合成資料訓練機器人模型,詳細說明請參考《自駕車模型訓練與蒸餾技術分析》一文。
然而與自駕車使用的模型蒸餾技術不同的是,GR00T N1模型採用雙系統架構,其靈感來自於人類的認知原理。「系統1」是快速思考的動作模型,可以類比為人類的反射或直覺動作,而「系統2」則是緩慢思考的模型,用於深思熟慮,進行有條理的決策。
搭載GR00T N1模型的機器人可以透過攝影機與多種感應器收集環境資訊,並在視覺語言模型的支援下,先以「系統2」分析接收到的指令,並進行推論運算以規劃行動,接著以「系統1」將規劃轉換為精確的機器人連續動作。
其中「系統1」的訓練除了以實際人類示範的資料做為素材之外,也大量使用由Omniverse平台產生的合成資料,提高AI模型的精確度以完成各種複雜的動作,開發者也可針對特定的人形機器人或任務,使用真實或合成資料對GR00T N1模型進行維調與後期訓練(Post-Training)。
舉例來說,GR00T N1模型能夠完用1或2隻手臂抓取、移動物品,或是將物品從一隻手臂傳到另一隻手臂,或是執行需要參考長上下文提示詞並結合多種動作的多步驟任務,進而勝任搬運材料、包裝和檢查等工作。
3強聯手打造開源物理引擎
NVIDIA宣布與Google DeepMind及Disney Research(迪士尼研究中心)合作開發的開源物理引擎Newton,它採用NVIDIA Warp框架開發,並且相容於Isaac Lab與Google DeepMind的MuJoCo等模擬框架,並預計導入Disney Research研發的物理引擎,支援模仿人類學習以及反覆試驗學習等多種方式,提供靈活多元的機器人訓練方式,協助開發者根據需求更新機器人技能,並以更高精準度處理複雜任務。
黃仁勳在演說尾聲帶上舞台的BDX droid機器人「Blue」就是由Disney Research立用Newton開發的成果。
對於訓練機器人使用的AI模型而言,提供大量、多樣化、高品質的資料十分重要,然而產製這類資料的成本卻不低,例如真人示範資料受限於工作者的時間,就算不眠不休每天最多也只有24小時能夠錄製示範資料。
而NVIDIA提供的Isaac GR00T Blueprint藍圖以Omniverse與Cosmos產生的合成資料為基礎(詳見自駕車訓練說明),讓開發者能已少量真人示範資料為基礎生成大量合成動作資料,有助於解決上述難題。
舉例來說使用這個藍圖,能在短短11小時生成78萬組合成軌跡,相當於6500小時(等同9個月)的真人示範資料。NVIDIA表示結合真實與合成資料,能夠較單純使用真實資料提高40% GR00T N1效能。
GR00T N1訓練資料和任務評估情境現在可從Hugging Face與GitHub下載,使用者也可以在GitHub下載Isaac GR00T Blueprint,是直接在build.nvidia.com網站查看互動展示。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!