So che il primo istinto è considerare l'esplorazione dei TPU di $META da parte di $GOOGL come l'inizio dell'erosione del potere di prezzo di $NVDA, ma non è questo il caso. La vera storia è la velocità della curva di carico di lavoro AI di Meta, poiché i cicli di addestramento di Llama, i sistemi di comprensione video e decine di miliardi di chiamate di inferenza giornaliere si scontrano tutti contro lo stesso soffitto computazionale. Meta è già sulla buona strada per spendere circa $100 miliardi in hardware Nvidia e sono ancora limitati nella capacità. Aggiungere i TPU non sostituisce quella spesa, ma si sovrappone ad essa. Anche se Nvidia raddoppiasse la produzione, Meta sarebbe comunque carente di capacità computazionale. Ecco quanto è ripida la carenza strutturale di capacità AI.