Я розумію, що перша інстинкція — подати $META дослідження $GOOGL TPU як початок зниження цінової потужності $NVDA, але це не те, що це так. Справжня історія — це швидкість кривої навантаження на AI у Meta, коли цикли навчання Llama, системи відеорозуміння та десятки мільярдів щоденних викликів до висновків стикаються з одним і тим самим обчислювальним максимумом. Meta вже готується витратити ~100 млрд доларів на апаратне забезпечення Nvidia, хоча в них досі обмежені потужності. Додавання TPU не компенсує ці витрати, але вони просто лежать зверху. Навіть якщо Nvidia подвоїть вихід, Meta все одно матиме нестачу обчислювальних ресурсів. Ось наскільки гострим є дефіцит потужностей структурного ШІ.