Agregando algo de contexto aquí, el aumento de la potencia de cálculo también equivale a un mayor consumo de energía, lo cual no es sostenible. EpochAI proyectó que: ➤ El cálculo de entrenamiento está escalando a 4-5 veces anualmente. ➤ Se espera que la demanda de energía aumente entre 2.2x y 2.9x por año. Para 2030, cada ejecución de entrenamiento podría requerir entre 4 y 16 gigavatios (GW), suficiente para alimentar millones de hogares en EE. UU. Existen varias soluciones disponibles: ➤ Mejorar la eficiencia energética del hardware ➤ Desarrollar métodos para reducir la duración del entrenamiento ➤ Utilizar entrenamiento distribuido a través de múltiples GPUs en diferentes ubicaciones geográficas. Entre estas, la tercera opción, liderada por proyectos como @ionet, @render y @AethirCloud, parece ser la solución más factible e inmediata. h/t @EpochAIResearch