Je sais que le premier instinct est de considérer l'exploration des TPU de $META par $GOOGL comme le début de l'érosion du pouvoir de tarification de $NVDA, mais ce n'est pas ce que c'est. La véritable histoire est la vitesse de la courbe de charge de travail IA de Meta, alors que les cycles d'entraînement de Llama, les systèmes de compréhension vidéo et des dizaines de milliards d'appels d'inférence quotidiens se heurtent tous au même plafond de calcul. Meta est déjà en passe de dépenser environ 100 milliards de dollars en matériel Nvidia et ils sont toujours contraints par leur capacité. Ajouter des TPU ne remplace pas cette dépense, mais cela s'ajoute simplement à celle-ci. Même si Nvidia doublait sa production, Meta manquerait toujours de capacité de calcul. C'est à quel point la pénurie structurelle de capacité IA est réellement sévère.