. @lukaszkaiser de @OpenAI sobre por que a generalização ainda é o ponto central: "Sou fascinado por generalizações. Sempre achei que esse era o tema-chave em aprendizado de máquina em geral e na compreensão da inteligência. O pré-treinamento é um pouco diferente... Isso não necessariamente aumenta a generalização. Só que usa mais conhecimento." "Nós empurramos os modelos. Eles aprendem coisas que estão relacionadas ao que ensinamos. Eles ainda têm limitações porque não vivem no mundo físico, porque não são muito bons em multimodais, porque o raciocínio ainda é muito jovem e ainda há muitos bugs na forma como fazemos isso." "Alguém disse que é como dirigir rápido na névoa. Você nunca sabe muito bem o quão longe ou perto está." Episódio completo com Łukasz abaixo - ou procure "MAD Podcast com Matt Turck" no YouTube, Spotify ou Apple Podcasts.