🚀 Introduksjon av X-VLA ; LeRobots nye mykpromptede Vision-Language-Action-modell.
X-VLA er bygget for å skalere på tvers av mange legemliggjøringer: ulike roboter, kameraer, handlingsrom og miljøer, alt håndtert av én samlet transformator-ryggrad.
- Generalist på tvers av roboter (Franka, WidowX, Agibot, sim + ekte)
- Soft-prompt domene-ID-er lar modellen tilpasse seg ny maskinvare med små lærbare embeddings
- Flow-matching + transformatorkjerne for jevn, kontinuerlig 50 Hz kontroll
- Forhåndstrent på et datasett med blandet integrering som spenner over 7+ plattformer og ulike oppgaver
- Finjuster på hvilket som helst datasett ved å bruke ett av de 6 sjekkpunktene vi tilbyr rett ut av boksen.
Veldig spent på å slippe dette sammen med @frodobots og @BitRobotNetwork, fantastisk å se at de åpner for roboten og datasettet!
Utforsk datasettet på Hugging Face Hub og sjekk ut Earth Rover Mini+ i LeRobot!
Vi åpner vår Earth Rover-plattform med @huggingface & @sigrobotics!
🤖 Integrert maskinvare (elektronikk, programvare, 3D-filer) med @LeRobotHF
🌎 7 000 timer med kjøredata fra 40+ byer, kuratert av forskere ved UC Berkeley
Tråd ↓
🚀 Vi har nettopp lansert en stor oppgradering til vår imitasjonslæring-i-simuleringslekeplass i LeRobot, bygget sammen med @LightwheelAI!
Du kan nå teleoperere roboter i simulator (tastatur eller ekte robot) og samle treningsdemonstrasjoner umiddelbart. Dette gjør det mulig å kjøre ekte IL-forskning på vanskeligere, mer realistiske manipulasjonsoppgaver, selv om du ikke har maskinvare.
Nye oppgaver:
🟠 Velg oransje på tallerkenen
🧺 Brett stoff (ja!)
📦 Velg 2 "E"-leker til esken
🔴 Løft rød kube
Gjennom vårt partnerskap med Lightwheel ble LeIsaac integrert i EnvHub fra dag én, en beste praksis-integrasjon som styrker begge økosystemene og driver simuleringsbasert robotikk fremover.
👉 Last inn en oppgave via EnvHub, begynn å teleopere, ta opp demoen, last opp dataene på huben, og du er klar til å trene eller teste.