Он прав. Проблема с текущей парадигмой трансформеров LLM заключается в том, что они работают на основе предполагаемых вероятностей между данными. Они не являются хранилищами знаний, сколько предсказательными движками токенов. Это не то, как мы достигаем интеллекта на уровне человека, а скорее это ступенька.