Er hat recht. Das Problem mit dem aktuellen Paradigma der Transformer-LLMs ist, dass sie auf abgeleiteten Wahrscheinlichkeiten zwischen Daten basieren. Sie sind nicht so sehr Wissensspeicher wie Token-Vorhersagemaschinen. So erreichen wir kein menschenähnliches Intelligenzniveau, sondern es ist vielmehr ein Schritt in diese Richtung.