Multi-robot-lärande får ett rejält lyft! 📚 Forskare har utökat Isaac Lab för att träna heterogena multiagent-robotpolicys i stor skala. Det nya ramverket stödjer högupplöst fysik, GPU-accelererad simulering samt både homogena och heterogena agenter som samarbetar med koordineringsuppgifter. De jämförde olika metoder (MAPPO: Multi-Agent Proximal Policy Optimization och HAPPO: Heterogeneous Agent PPO) över sex utmanande scenarier och visade att storskalig multirobotträning inte bara är genomförbar utan också effektiv. Det är ett viktigt steg för verkligt robotsamarbete, där team av robotar behöver samordna, dela uppgifter, anpassa roller och interagera dynamiskt, inte bara arbeta som identiska kloner. Koden är öppen källkod och för Isaac Lab närmare det robotik faktiskt behöver: skalbara, fysikdrivna miljöer där många olika robotar kan lära sig att samarbeta. Här är projektsidan: ~~ ♻️ Gå med i det veckovisa robotiknyhetsbrevet och missa aldrig några nyheter →