Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Regalo de la semana de Acción de Gracias: una conversación épica sobre Frontier AI con @lukaszkaiser coautor de "Attention Is All You Need" (Transformers) y científico investigador destacado en @OpenAI trabajando en modelos de razonamiento de la era GPT-5.1.
00:00 – Apertura en frío e introducción
01:29 – "Desaceleración de la IA" frente a una semana salvaje de nuevos modelos fronterizos
08:03 – Fruta fácil, infraestructura, entrenamiento RL y mejores datos
11:39 – ¿Qué es un modelo de razonamiento, en lenguaje sencillo
17:02 – Cadena de pensamiento y entrenamiento del proceso de pensamiento con la vida real
21:39 – El camino de Łukasz: de la lógica y Francia a Google y Kurzweil
24:20 – Dentro de la historia de los Transformers y lo que realmente significa "atención"
28:42 – De Google Brain a OpenAI: cultura, escala y GPUs
32:49 – ¿Qué sigue para el preentrenamiento, GPUs y destilación?
37:29 – ¿Podemos seguir entendiendo estos modelos? Circuitos, esparsidad y cajas negras
39:42 – GPT-4 → GPT-5 → GPT-5.1: qué cambió realmente
42:40 – Post-entrenamiento, seguridad y enseñanza de diferentes tonos GPT-5.1
46:16 – ¿Cuánto tiempo debería pensar GPT-5.1? Fichas de razonamiento y habilidades dentadas
47:43 – El rompecabezas de puntos del niño de cinco años que aún rompe los modelos fronterizos
...
Populares
Ranking
Favoritas

