Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Shanu Mathew
Clima, Investimento, NBA, & Rap. SVP, Gerente de Portfólio - Investimento Sustentável. Prev: Head de ESG, HY Credit, Startup (acq.) IB. As RT ≠ aprovação.
O NotebookLM do Google fez isso de forma impressionante! Ele explicou muito bem o estudo para um público geral e iniciante.
Nós, da área de energia e poder, deveríamos usar isso mais para transmitir tópicos complexos.
Sinto que esse tipo de mídia poderia ajudar a educar líderes políticos sobre tópicos mais sutis.

Tyler Norris5/12, 00:34
Entusiasmado por compartilhar novas pesquisas significativas sobre como a flexibilidade de carga grande pode melhorar a acessibilidade, acelerar a velocidade de fornecimento e preservar a confiabilidade.
Esse tipo de trabalho é exatamente o motivo pelo qual me juntei à equipe do @Google, que se orgulha de apoiar especialistas como estes na vanguarda da pesquisa em sistemas de energia. À medida que olhamos para 2026, nossa equipe está ansiosa para aprofundar a colaboração com analistas e acadêmicos líderes para ajudar a navegar por essas oportunidades e desafios.
Duas atualizações importantes nesse sentido:
1️⃣ 𝐎𝐛𝐫𝐚 𝐍𝐨𝐯𝐚: "𝐂𝐞𝐧𝐭𝐫𝐨𝐬 𝐃𝐞 𝐃𝐚𝐭𝐨𝐬 𝐅𝐥𝐞𝐱𝐢𝐛𝐥𝐞𝐬: 𝐔𝐦 𝐏𝐚𝐭𝐡 𝐌𝐨𝐫𝐚 𝐀𝐜𝐞𝐬𝐬𝐢𝐯𝐞𝐥 𝐞 𝐌𝐨𝐫𝐚 𝐑𝐚𝐩𝐢𝐝𝐨 𝐩𝐚𝐫𝐚 𝐎𝐩𝐨𝐫𝐚𝐜𝐨𝐞𝐬": No primeiro estudo publicamente disponível que combina dados reais do sistema de transmissão de utilidade, modelagem de expansão de capacidade em nível de sistema e otimização de capacidade em nível de local para avaliar como a flexibilidade pode acelerar as interconexões de centros de dados, @CamusEnergy (liderado por Astrid Atkinson), @Princeton University ZERO Lab (liderado pelo Prof. @JesseJenkins) e encoord descobriram que combinar conexões de rede flexíveis com "traga-sua-própria-capacidade" (BYOC) no PJM pode:
• 𝘗𝘳𝘰𝘵𝘦𝘤𝘵𝘦𝘳 𝘢𝘧𝘧𝘰𝘳𝘥𝘢𝘣𝘪𝘭𝘪𝘵𝘺: Centros de dados flexíveis contribuem com ~$733 milhões por GW para os custos associados à sua carga incremental, 𝐫𝐞𝐝𝐮𝐜𝐢𝐧𝐝𝐨 𝐨 𝐜𝐨𝐬𝐭𝐨 𝐧𝐞𝐭 𝐝𝐨 𝐬𝐲𝐬𝐭𝐞𝐦𝐚 𝐜𝐨𝐦 𝐮𝐦 𝐢𝐧𝐜𝐫𝐞𝐦𝐞𝐧𝐭𝐨 𝐝𝐞 96% em comparação com um cenário com o mesmo volume de centros de dados inflexíveis.
• 𝘗𝘳𝘦𝘴𝘦𝘳𝘷𝘦 𝘳𝘦𝘭𝘪𝘢𝘣𝘪𝘭𝘪𝘵𝘺: A energia da rede permaneceu disponível por >99% das horas em todos os locais de centros de dados modelados, com recursos no local despachados 𝐨𝐧𝐥𝐲 40-70 𝐡𝐨𝐮𝐫𝐬 𝐚𝐧𝐧𝐮𝐚𝐥𝐥𝐲.
• 𝘈𝘤𝘤𝘦𝘭𝘦𝘳𝘢𝘵𝘦 𝘪𝘯𝘵𝘦𝘳𝘤𝘰𝘯𝘯𝘦𝘤𝘵𝘪𝘰𝘯: Reduziu o tempo de espera pela energia da rede em 3 a 5 anos em comparação com os cronogramas tradicionais.
► Estudo:
► Cobertura da Bloomberg:
2️⃣ 𝐎𝐛𝐫𝐚 𝐍𝐨𝐯𝐚 𝐝𝐨 𝐌𝐨𝐝𝐞𝐥𝐨 𝐝𝐞 𝐋𝐨𝐭𝐚𝐠𝐞𝐦 𝐃𝐨𝐬 𝐃𝐮𝐤𝐞 𝐔𝐧𝐢𝐯𝐞𝐫𝐬𝐢𝐭𝐲 - 𝐖𝐞𝐛𝐢𝐧𝐚𝐫: A conversa continua na próxima semana, quando novos modelos sobre a flexibilidade de carga grande no PJM pelo GRACE Lab da @DukeU (liderado pela Prof. Dalia Patiño-Echeverri) serão apresentados juntamente com insights da @EPRINews, um ex-comissário da @FERC, e um especialista em resposta à demanda do @Google. Terça-feira, 9 de dezembro, 11h-12h ET. Registre-se:
Esperamos que você ache este trabalho valioso e estamos ansiosos para a colaboração contínua com muitos de vocês em 2026!

53,84K
Acho que esta é uma opinião provocadora e um bom pensamento, mas queria trabalhar um pouco a razão por trás disso.
Hoje, a maioria das ferramentas de IA funciona na nuvem. Cada vez que você pede a um modelo para escrever, resumir, traduzir ou analisar algo, esse pedido atinge uma GPU em um data center. Mais usuários → mais consultas → mais GPUs → mais data centers → mais linhas de energia, transformadores, subestações → mais geração, etc. Esse é o núcleo do ciclo de crescimento por trás do atual boom de hardware de IA + capex de data centers.
A inferência útil no dispositivo interrompe essa cadeia linear.
Se um modelo de bilhões de parâmetros for eficiente o suficiente para rodar no chip neural dentro do seu telefone, laptop, carro ou fone de ouvido, então uma grande parte das tarefas do dia a dia nunca precisa sair do dispositivo. Pense em pedidos simples, mas de alto volume: autocompletar, redação de e-mails, transcrição de voz, sumarização, reconhecimento de imagem simples. Estas são exatamente as consultas gerais de alto volume e baixa complexidade que provavelmente dominarão o uso.
Verificação rápida do que pode mudar: Assumptions simples - ajuste como quiser.
-1B usuários × 50 consultas/dia × ~$0.002/consulta x 365 dias = ~$35B/ano em custo de inferência na nuvem.
-Se 30% disso se mover para o dispositivo, isso representa ~$11B+ de demanda anual na nuvem que nunca se materializa.
-O custo marginal por consulta local é efetivamente ~$0 uma vez que o dispositivo é enviado.
Caveats normais: o hardware está avançando, mas ainda precisa escalar memória, largura de banda, etc. Mas, um modelo de 3–7B parâmetros rodando no chip neural de um telefone (aproximadamente 10–45 “TOPS” hoje, 60+ projetado até 2027) poderia lidar com essas tarefas de alto volume e baixa complexidade localmente. Você não precisa de modelos de escala de fronteira para cada prompt.
A nuvem ainda é importante, para ser muito claro. Treinamento de modelos de fronteira, raciocínio de longo contexto pesado, grandes cargas de trabalho empresariais, coordenação multi-agente – tudo isso continua muito melhor adequado a grandes data centers centralizados. A mudança chave é que a cadeia lógica não é mais “cada novo usuário = eu devo adicionar mais GPUs e mais gigawatts de capacidade de data center.” Desconhecido aqui é o argumento do paradoxo de Jevons e se isso impulsiona mais uso de IA e leva os usuários a buscar prompts mais complexos, o que compensa parte disso.
Para o ponto de Aashay, o boom de capex não 'quebra' totalmente, mas sua trajetória de intensidade atual é muito provavelmente modificada. Mudar mesmo 5–30% das cargas de trabalho de inferência da nuvem para o dispositivo na escala de hoje pode ser significativo. Problemas difíceis permanecem centralizados na nuvem. Mas a “IA do dia a dia” se torna um recurso do hardware que você já possui, em vez de um utilitário medido que é alugado por consulta.

Aashay Sanghvi4/12, 12:33
A inferência no dispositivo quebra o trade-off de capex da IA
78,18K
Dwarkesh cozinhou com este imo:
-Paradoxo RLVR: Laboratórios gastando bilhões pré-treinando habilidades específicas que revelam uma tensão fundamental: se estamos perto de aprendizes semelhantes a humanos, isso torna todo esse pré-treinamento inútil, uma vez que eles aprenderiam no trabalho.
-O verdadeiro valor do trabalho humano: Não precisamos de pipelines de treinamento personalizados para cada micro-tarefa; a IA atual faz isso.
-Atraso na difusão = cope: Se os modelos fossem equivalentes a humanos, eles se integrariam mais rapidamente do que os funcionários [Podemos debater isso - a proveniência dos dados, a confiança dos negócios na confiabilidade, medos de substituição, etc. podem razoavelmente atrasar a implementação da IA; mas, ainda assim, todos estaríamos convencidos de que é uma opção melhor e isso ainda não é verdade, então o ponto se mantém imo].
-O deslocamento de metas ocorreu: Resolvemos o que pensávamos serem gargalos da AGI (por exemplo, raciocínio), mas ainda não conseguimos automatizar 95% do trabalho de conhecimento. A inteligência é mais do que percebemos e definimos anteriormente, e tudo bem admitir isso.
-Gargalo de Aprendizado Contínuo: A explosão futura da IA depende de resolver o aprendizado contínuo - agentes implantados, aprendendo com a experiência, fundindo conhecimento de volta a uma "mente colmeia". Estamos longe disso, mas otimistas de que podemos chegar lá!

Dwarkesh Patel3/12, 05:56
Novo post: Reflexões sobre o progresso da IA (Dez 2025)
1. O que estamos a escalar?

50,31K
Top
Classificação
Favoritos

