. @lukaszkaiser de @OpenAI sobre por qué la generalización sigue siendo el meollo: "Me fascina la generalización. Siempre pensé que este era el tema clave en el aprendizaje automático en general y en la comprensión de la inteligencia. El preentrenamiento es un poco diferente... No necesariamente aumenta la generalización. Solo que requiere más conocimiento." "Empujamos a los modelos. Aprenden cosas que están relacionadas con lo que les enseñamos. Todavía tienen limitaciones porque no viven en el mundo físico, porque no son muy buenos en multimodal, porque el razonamiento es muy joven y todavía hay muchos fallos en cómo lo hacemos." "Alguien dijo que es como conducir rápido en la niebla. Nunca sabes muy bien lo lejos o cerca que estás." Episodio completo con Łukasz a continuación, o busca "MAD Podcast con Matt Turck" en YouTube, Spotify o Apple Podcasts.