Regalo de la semana de Acción de Gracias: una conversación épica sobre Frontier AI con @lukaszkaiser coautor de "Attention Is All You Need" (Transformers) y científico investigador destacado en @OpenAI trabajando en modelos de razonamiento de la era GPT-5.1. 00:00 – Apertura en frío e introducción 01:29 – "Desaceleración de la IA" frente a una semana salvaje de nuevos modelos fronterizos 08:03 – Fruta fácil, infraestructura, entrenamiento RL y mejores datos 11:39 – ¿Qué es un modelo de razonamiento, en lenguaje sencillo 17:02 – Cadena de pensamiento y entrenamiento del proceso de pensamiento con la vida real 21:39 – El camino de Łukasz: de la lógica y Francia a Google y Kurzweil 24:20 – Dentro de la historia de los Transformers y lo que realmente significa "atención" 28:42 – De Google Brain a OpenAI: cultura, escala y GPUs 32:49 – ¿Qué sigue para el preentrenamiento, GPUs y destilación? 37:29 – ¿Podemos seguir entendiendo estos modelos? Circuitos, esparsidad y cajas negras 39:42 – GPT-4 → GPT-5 → GPT-5.1: qué cambió realmente 42:40 – Post-entrenamiento, seguridad y enseñanza de diferentes tonos GPT-5.1 46:16 – ¿Cuánto tiempo debería pensar GPT-5.1? Fichas de razonamiento y habilidades dentadas 47:43 – El rompecabezas de puntos del niño de cinco años que aún rompe los modelos fronterizos ...