Ma rację. Problem z obecnym paradygmatem transformatorowych LLM polega na tym, że działają one na podstawie wywnioskowanych prawdopodobieństw między danymi. Nie są one magazynami wiedzy, a raczej silnikami przewidywania tokenów. To nie jest sposób, w jaki osiągamy inteligencję na poziomie ludzkim, lecz raczej krok w tym kierunku.