Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Trato de la semana de Acción de Gracias: una conversación épica sobre Frontier AI con @lukaszkaiser - coautor de “Attention Is All You Need” (Transformers) y científico investigador líder en @OpenAI trabajando en modelos de razonamiento de la era GPT-5.1.
00:00 – Apertura fría e introducción
01:29 – “Desaceleración de la IA” vs una semana salvaje de nuevos modelos de frontera
08:03 – Frutos al alcance, infraestructura, entrenamiento por refuerzo y mejores datos
11:39 – ¿Qué es un modelo de razonamiento, en lenguaje sencillo?
17:02 – Cadena de pensamiento y entrenamiento del proceso de pensamiento con RL
21:39 – El camino de Łukasz: de la lógica y Francia a Google y Kurzweil
24:20 – Dentro de la historia del Transformer y lo que realmente significa “atención”
28:42 – De Google Brain a OpenAI: cultura, escala y GPUs
32:49 – ¿Qué sigue para el pre-entrenamiento, GPUs y destilación?
37:29 – ¿Podemos seguir entendiendo estos modelos? Circuitos, escasez y cajas negras
39:42 – GPT-4 → GPT-5 → GPT-5.1: ¿qué ha cambiado realmente?
42:40 – Post-entrenamiento, seguridad y enseñar a GPT-5.1 diferentes tonos
46:16 – ¿Cuánto tiempo debería pensar GPT-5.1? Tokens de razonamiento y habilidades irregulares
47:43 – El rompecabezas de puntos de un niño de cinco años que aún rompe modelos de frontera
...
Parte superior
Clasificación
Favoritos

