突发消息:苹果刚刚证明了像Claude、DeepSeek-R1和o3-mini这样的AI "推理" 模型实际上根本不进行推理。 它们只是非常擅长记忆模式。 这是苹果发现的内容: (提示:我们距离AGI并没有宣传的那么近)
苹果发现这些模型根本不进行推理,而是进行复杂的模式匹配,这在模式变得过于复杂之前效果很好。 然后它们就像一座纸牌屋一样崩溃。
如果这些模型真的在“推理”,它们应该在更多计算和更清晰的指令下变得更好。 相反,它们却遇到了巨大的障碍,开始放弃。 这算是智能还是记忆力达到了极限?
当人工智能公司庆祝他们的模型在“思考”时,苹果基本上说:“每个人都在庆祝虚假的推理。” 这个行业正在追逐那些无法衡量实际智能的指标。
你怎么看? 苹果只是因为在过去两年中在人工智能发展上被超越而在"应对"吗? 还是说苹果是对的? 在下面评论,我会回复所有人。
14.73M