Adicionando algum contexto aqui, o aumento do poder computacional também se traduz em um maior consumo de energia, o que é insustentável. A EpochAI projetou que: ➤ O poder de computação para treinamento está escalando a 4-5x anualmente. ➤ A demanda de energia deve aumentar de 2,2x a 2,9x por ano. Até 2030, cada execução de treinamento pode exigir de 4 a 16 gigawatts (GW), o suficiente para abastecer milhões de lares nos EUA. Várias soluções estão disponíveis: ➤ Melhorar a eficiência energética do hardware ➤ Desenvolver métodos para reduzir a duração do treinamento ➤ Utilizar treinamento distribuído em várias GPUs em diferentes locais geográficos. Dentre essas, a terceira opção, liderada por projetos como @ionet, @render e @AethirCloud, parece ser a solução mais viável e imediata. h/t @EpochAIResearch