Sei que o primeiro instinto é enquadrar $META explorar $GOOGL TPUs como o início de $NVDA erosão de energia, mas não é isso que se trata. A verdadeira história é a velocidade da curva de carga de trabalho de IA da Meta, enquanto ciclos de treinamento com Lhamas, sistemas de aprendizado de vídeo e dezenas de bilhões de chamadas diárias de inferência se encontram no mesmo teto computacional. A Meta já está no caminho para gastar ~$100 bilhões em hardware da Nvidia e ainda está com capacidade limitada. Adicionar TPUs não substitui esse gasto, mas ele simplesmente fica por cima. Mesmo que a Nvidia dobrasse a saída, a Meta ainda ficaria com pouca computação. É assim que a escassez estrutural de capacidade de IA realmente é acentuada.