For å legge til litt kontekst her, økt datakraft tilsvarer også større energiforbruk, noe som ikke er bærekraftig. EpochAI anslo at: ➤ Treningsberegning skaleres med 4-5 ganger årlig. ➤ Kraftbehovet forventes å øke med 2,2x til 2,9x per år. Innen 2030 kan hver treningskjøring kreve 4-16 gigawatt (GW), nok til å drive millioner av amerikanske hjem. Flere løsninger er tilgjengelige: ➤ Forbedre maskinvarens energieffektivitet ➤ Utvikle metoder for å redusere treningsvarigheten ➤ Bruk distribuert opplæring på tvers av flere GPUer på forskjellige geografiske steder. Blant disse ser det tredje alternativet, ledet av prosjekter som @ionet, @render og @AethirCloud, ut til å være den mest gjennomførbare og umiddelbare løsningen. h/t @EpochAIResearch