我知道第一反应是将 $META 探索 $GOOGL TPUs 视为 $NVDA 定价权侵蚀的开始,但事实并非如此。 真正的故事是 Meta 的 AI 工作负载曲线的速度,因为 Llama 训练周期、视频理解系统和每天数十亿次推理调用都撞上了同一个计算上限。 Meta 已经在计划花费大约 1000 亿美元在 Nvidia 硬件上,但他们仍然受到产能限制。添加 TPUs 并不能替代这笔支出,而只是叠加在其上。即使 Nvidia 的产量翻倍,Meta 仍然会在计算能力上短缺。 这就是结构性 AI 产能短缺的陡峭程度。