Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matt Turck
VC en @FirstMarkCap. Presentador: MAD Podcast; Organizador: Data Driven NYC, Autor: MAD Landscape.
. @lukaszkaiser de @OpenAI sobre por qué la generalización sigue siendo el meollo:
"Me fascina la generalización. Siempre pensé que este era el tema clave en el aprendizaje automático en general y en la comprensión de la inteligencia. El preentrenamiento es un poco diferente... No necesariamente aumenta la generalización. Solo que requiere más conocimiento."
"Empujamos a los modelos. Aprenden cosas que están relacionadas con lo que les enseñamos. Todavía tienen limitaciones porque no viven en el mundo físico, porque no son muy buenos en multimodal, porque el razonamiento es muy joven y todavía hay muchos fallos en cómo lo hacemos."
"Alguien dijo que es como conducir rápido en la niebla. Nunca sabes muy bien lo lejos o cerca que estás."
Episodio completo con Łukasz a continuación, o busca "MAD Podcast con Matt Turck" en YouTube, Spotify o Apple Podcasts.

Matt Turck27 nov 2025
Regalo de la semana de Acción de Gracias: una conversación épica sobre Frontier AI con @lukaszkaiser coautor de "Attention Is All You Need" (Transformers) y científico investigador destacado en @OpenAI trabajando en modelos de razonamiento de la era GPT-5.1.
00:00 – Apertura en frío e introducción
01:29 – "Desaceleración de la IA" frente a una semana salvaje de nuevos modelos fronterizos
08:03 – Fruta fácil, infraestructura, entrenamiento RL y mejores datos
11:39 – ¿Qué es un modelo de razonamiento, en lenguaje sencillo
17:02 – Cadena de pensamiento y entrenamiento del proceso de pensamiento con la vida real
21:39 – El camino de Łukasz: de la lógica y Francia a Google y Kurzweil
24:20 – Dentro de la historia de los Transformers y lo que realmente significa "atención"
28:42 – De Google Brain a OpenAI: cultura, escala y GPUs
32:49 – ¿Qué sigue para el preentrenamiento, GPUs y destilación?
37:29 – ¿Podemos seguir entendiendo estos modelos? Circuitos, esparsidad y cajas negras
39:42 – GPT-4 → GPT-5 → GPT-5.1: qué cambió realmente
42:40 – Post-entrenamiento, seguridad y enseñanza de diferentes tonos GPT-5.1
46:16 – ¿Cuánto tiempo debería pensar GPT-5.1? Fichas de razonamiento y habilidades dentadas
47:43 – El rompecabezas de puntos del niño de cinco años que aún rompe los modelos fronterizos
52:22 – Generalización, aprendizaje infantil y si el razonamiento es suficiente
53:48 – Más allá de los Transformers: ARC, las ideas de LeCun y los cuellos de botella multimodales
56:10 – Códice GPT-5.1 Máximo, agentes de larga duración y compactación
1:00:06 – ¿Se comen las modelos de base la mayoría de las apps? La analogía de la traducción y la confianza
1:02:34 – Qué queda por resolver y hacia dónde podría ir la IA a continuación
3.19K
Populares
Ranking
Favoritas


