Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Thanksgiving-week traktatie: een episch gesprek over Frontier AI met @lukaszkaiser - mede-auteur van “Attention Is All You Need” (Transformers) en leidend onderzoekswetenschapper bij @OpenAI die werkt aan GPT-5.1-achtige redeneer modellen.
00:00 – Koude opening en intro
01:29 – “AI vertraging” versus een wilde week van nieuwe frontier modellen
08:03 – Laaghangend fruit, infrastructuur, RL-training en betere data
11:39 – Wat is een redeneer model, in gewone taal
17:02 – Chain-of-thought en het trainen van het denkproces met RL
21:39 – Łukasz’s pad: van logica en Frankrijk naar Google en Kurzweil
24:20 – Binnen het Transformer verhaal en wat “aandacht” echt betekent
28:42 – Van Google Brain naar OpenAI: cultuur, schaal en GPU's
32:49 – Wat is de volgende stap voor pre-training, GPU's en distillatie
37:29 – Kunnen we deze modellen nog steeds begrijpen? Circuits, spaarzaamheid en zwarte dozen
39:42 – GPT-4 → GPT-5 → GPT-5.1: wat is er eigenlijk veranderd
42:40 – Post-training, veiligheid en het leren van GPT-5.1 verschillende tonen
46:16 – Hoe lang moet GPT-5.1 nadenken? Redeneertokens en onregelmatige vaardigheden
47:43 – De puzzel van de vijfjarige die nog steeds frontier modellen breekt
...
Boven
Positie
Favorieten

