weer een geweldig onderzoek van Google DeepMind: PhysWorld — "robot leren van AI-gegeneerde taakvideo's via modellering van de fysieke wereld" belangrijke punten uit het paper: - behaalt 82% taak succes versus 67% voor de beste video-only baseline - leert van AI-gegeneerde video's via reconstructie van de fysieke wereld - gebruikt object-gecentreerde residual RL voor fysica-gegronde acties - maakt zero-shot manipulatie mogelijk zonder nieuwe data lijkt een duidelijke stap richting praktische video-naar-robot overdracht