Para criar as condições para um desejo intrínseco máximo de adquirir novos conhecimentos continuamente... deve-se, contraintuitivamente, minimizar o volume de "conhecimento" a priori para que a mente esteja livre de convenções. Acredito que isso seja verdade com cada fibra do meu ser. Por essa razão, acredito que 100% dos modelos de IA utilizados hoje estão errados em sua abordagem fundamental para destilar informações que os humanos então inferem deles. Para modelos treinados em trilhões de dados rotulados por humanos (tendenciosos) e RLHF’d (uma abominação): Não há raciocínio. Não há inteligência. Há simplesmente regurgitação e alucinação disfarçadas de conhecimento. Dito isso, as ferramentas disponíveis hoje são profundamente impactantes e claramente estão acelerando o progresso digital de maneiras profundas. Mas como @amasad disse em um podcast recente, não podemos nos distrair demais com a empolgação industrial dos métodos atuais. O verdadeiro RL ainda não foi testado. Não devemos desistir. Devemos reconhecer que é necessária muito mais exploração... no nível das arquiteturas de software (sim, alternativas a Transformers e muito além), substratos de hardware (analógicos, memristores, etc.), representações de dados (novas dimensões superiores de tensores 4D +) e muito mais!