Multi-robot-læring får et seriøst løft! 📚 Forskere har utvidet Isaac Lab til å trene heterogene multi-agent robotpolicyer i stor skala. Det nye rammeverket støtter høyoppløselig fysikk, GPU-akselerert simulering, og både homogene og heterogene agenter som jobber sammen på koordineringsoppgaver. De benchmarket ulike tilnærminger (MAPPO: Multi-Agent Proximal Policy Optimization og HAPPO: Heterogeneous Agent PPO) på tvers av seks utfordrende scenarier og viste at storskala multi-robottrening ikke bare er gjennomførbart, men også effektivt. Det er et viktig steg for reelt robotsamarbeid, hvor team av roboter må koordinere, dele oppgaver, tilpasse roller og samhandle dynamisk, ikke bare operere som identiske kloner. Koden er åpen kildekode, og den bringer Isaac Lab nærmere det robotikk faktisk trenger: skalerbare, fysikkdrevne miljøer hvor mange forskjellige roboter kan lære å samarbeide. Her er prosjektsiden: ~~ ♻️ Bli med på det ukentlige robotikknyhetsbrevet, og gå aldri glipp av noen nyheter →