Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Adicionando algum contexto aqui, o aumento do poder de computação também equivale a um maior consumo de energia, o que é insustentável.
A EpochAI projetou que:
➤ A computação de treinamento está sendo dimensionada de 4 a 5 vezes por ano.
➤ Espera-se que a demanda de energia aumente de 2,2 a 2,9 vezes por ano.
Até 2030, cada corrida de treinamento pode exigir de 4 a 16 gigawatts (GW), o suficiente para abastecer milhões de residências nos EUA.
Várias soluções estão disponíveis:
➤ Melhore a eficiência energética do hardware
➤ Desenvolver métodos para reduzir a duração do treinamento
➤ Utilize o treinamento distribuído em várias GPUs em diferentes localizações geográficas.
Entre elas, a terceira opção, encabeçada por projetos como @ionet, @render e @AethirCloud, parece a solução mais viável e imediata.
h / t @EpochAIResearch

Melhores
Classificação
Favoritos