. @lukaszkaiser de @OpenAI sobre por qué la generalización sigue siendo el núcleo: “Me fascina la generalización. Siempre pensé que este era el tema clave en el aprendizaje automático en general y en la comprensión de la inteligencia. El preentrenamiento es un poco diferente... no necesariamente aumenta la generalización. Simplemente utiliza más conocimiento.” “Impulsamos los modelos. Aprenden cosas que están alrededor de lo que les enseñamos. Aún tienen limitaciones porque no viven en el mundo físico, porque no son muy buenos en multimodal, porque el razonamiento es muy joven y hay muchos errores en cómo lo hacemos aún.” “Alguien dijo, es como conducir rápido en una niebla. Nunca sabes con claridad cuán lejos o cerca estás.” Episodio completo con Łukasz a continuación - o busca "MAD Podcast con Matt Turck" en YouTube, Spotify o Apple Podcasts.