Wiem, że pierwszym instynktem jest przedstawienie $META badającego $GOOGL TPU jako początku erozji siły cenowej $NVDA, ale to nie o to chodzi. Prawdziwa historia to prędkość krzywej obciążenia AI Meta, gdy cykle treningowe Llama, systemy rozumienia wideo i dziesiątki miliardów codziennych wywołań inferencyjnych uderzają w ten sam sufit obliczeniowy. Meta już zmierza do wydania ~100 miliardów dolarów na sprzęt Nvidii i nadal mają ograniczenia w pojemności. Dodanie TPU nie zastępuje tych wydatków, ale po prostu się na nich opiera. Nawet jeśli Nvidia podwoiłaby produkcję, Meta nadal miałaby niedobór mocy obliczeniowej. Tak stroma jest rzeczywista strukturalna luka w pojemności AI.