Trato de la semana de Acción de Gracias: una conversación épica sobre Frontier AI con @lukaszkaiser - coautor de “Attention Is All You Need” (Transformers) y científico investigador líder en @OpenAI trabajando en modelos de razonamiento de la era GPT-5.1. 00:00 – Apertura fría e introducción 01:29 – “Desaceleración de la IA” vs una semana salvaje de nuevos modelos de frontera 08:03 – Frutos al alcance, infraestructura, entrenamiento por refuerzo y mejores datos 11:39 – ¿Qué es un modelo de razonamiento, en lenguaje sencillo? 17:02 – Cadena de pensamiento y entrenamiento del proceso de pensamiento con RL 21:39 – El camino de Łukasz: de la lógica y Francia a Google y Kurzweil 24:20 – Dentro de la historia del Transformer y lo que realmente significa “atención” 28:42 – De Google Brain a OpenAI: cultura, escala y GPUs 32:49 – ¿Qué sigue para el pre-entrenamiento, GPUs y destilación? 37:29 – ¿Podemos seguir entendiendo estos modelos? Circuitos, escasez y cajas negras 39:42 – GPT-4 → GPT-5 → GPT-5.1: ¿qué ha cambiado realmente? 42:40 – Post-entrenamiento, seguridad y enseñar a GPT-5.1 diferentes tonos 46:16 – ¿Cuánto tiempo debería pensar GPT-5.1? Tokens de razonamiento y habilidades irregulares 47:43 – El rompecabezas de puntos de un niño de cinco años que aún rompe modelos de frontera ...