Thanksgiving-week traktatie: een episch gesprek over Frontier AI met @lukaszkaiser - mede-auteur van “Attention Is All You Need” (Transformers) en leidend onderzoekswetenschapper bij @OpenAI die werkt aan GPT-5.1-achtige redeneer modellen. 00:00 – Koude opening en intro 01:29 – “AI vertraging” versus een wilde week van nieuwe frontier modellen 08:03 – Laaghangend fruit, infrastructuur, RL-training en betere data 11:39 – Wat is een redeneer model, in gewone taal 17:02 – Chain-of-thought en het trainen van het denkproces met RL 21:39 – Łukasz’s pad: van logica en Frankrijk naar Google en Kurzweil 24:20 – Binnen het Transformer verhaal en wat “aandacht” echt betekent 28:42 – Van Google Brain naar OpenAI: cultuur, schaal en GPU's 32:49 – Wat is de volgende stap voor pre-training, GPU's en distillatie 37:29 – Kunnen we deze modellen nog steeds begrijpen? Circuits, spaarzaamheid en zwarte dozen 39:42 – GPT-4 → GPT-5 → GPT-5.1: wat is er eigenlijk veranderd 42:40 – Post-training, veiligheid en het leren van GPT-5.1 verschillende tonen 46:16 – Hoe lang moet GPT-5.1 nadenken? Redeneertokens en onregelmatige vaardigheden 47:43 – De puzzel van de vijfjarige die nog steeds frontier modellen breekt ...