Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Adicionando algum contexto aqui, o aumento do poder computacional também se traduz em um maior consumo de energia, o que é insustentável.
A EpochAI projetou que:
➤ O poder de computação para treinamento está escalando a 4-5x anualmente.
➤ A demanda de energia deve aumentar de 2,2x a 2,9x por ano.
Até 2030, cada execução de treinamento pode exigir de 4 a 16 gigawatts (GW), o suficiente para abastecer milhões de lares nos EUA.
Várias soluções estão disponíveis:
➤ Melhorar a eficiência energética do hardware
➤ Desenvolver métodos para reduzir a duração do treinamento
➤ Utilizar treinamento distribuído em várias GPUs em diferentes locais geográficos.
Dentre essas, a terceira opção, liderada por projetos como @ionet, @render e @AethirCloud, parece ser a solução mais viável e imediata.
h/t @EpochAIResearch

Top
Classificação
Favoritos