Treat-ul săptămânii de Ziua Recunoștinței: o conversație epică despre Frontier AI cu @lukaszkaiser coautor al cărții "Attention Is All You Need" (Transformers) și cercetător de top la @OpenAI care lucrează la modele de raționament din era GPT-5.1. 00:00 – Deschidere la rece și introducere 01:29 – "Încetinirea AI" vs o săptămână sălbatică plină de noi modele de frontieră 08:03 – Fructe la îndemână, infrastructură, antrenament RL și date mai bune 11:39 – Ce este un model de raționament, în limbaj simplu 17:02 – Lanțul de gândire și antrenarea procesului de gândire cu RL 21:39 – Drumul lui Łukasz: de la logică și Franța la Google și Kurzweil 24:20 – În interiorul poveștii Transformerilor și ce înseamnă cu adevărat "atenția" 28:42 – De la Google Brain la OpenAI: cultură, scară și GPU-uri 32:49 – Ce urmează pentru pre-antrenament, GPU-uri și distilare 37:29 – Putem încă să înțelegem aceste modele? Circuite, scaritate și cutii negre 39:42 – GPT-4 → GPT-5 → GPT-5.1: ce s-a schimbat de fapt 42:40 – Post-antrenament, siguranță și predarea tonurilor diferite GPT-5.1 46:16 – Cât timp ar trebui să se gândească GPT-5.1? Jetoane de raționament și abilități zimțate 47:43 – Puzzle-ul cu puncte al copilului de cinci ani care încă sparge modelele de frontieră ...