Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matt Turck
VC op @FirstMarkCap. Host: MAD Podcast; Organisator: Data Driven NYC, auteur: MAD Landscape.
. @lukaszkaiser van @OpenAI over waarom generalisatie nog steeds de kern is:
“Ik ben gefascineerd door generalisatie. Ik heb altijd gedacht dat dit het belangrijkste onderwerp is in machine learning in het algemeen en in het begrijpen van intelligentie. Pre-training is een beetje anders... het verhoogt niet noodzakelijkerwijs de generalisatie. Het gebruikt gewoon meer kennis.”
“We duwen de modellen. Ze leren dingen die rondom datgene zijn wat we ze leren. Ze hebben nog steeds beperkingen omdat ze niet in de fysieke wereld leven, omdat ze niet erg goed zijn in multimodaal, omdat redeneren nog heel jong is en er veel bugs zijn in hoe we het doen.”
“Iemand zei, het is als snel rijden in een mist. Je weet nooit heel duidelijk hoe ver of dichtbij je bent.”
Volledige aflevering met Łukasz hieronder - of zoek "MAD Podcast met Matt Turck" op YouTube, Spotify of Apple Podcasts.

Matt Turck27 nov 2025
Thanksgiving-week traktatie: een episch gesprek over Frontier AI met @lukaszkaiser - mede-auteur van “Attention Is All You Need” (Transformers) en leidend onderzoekswetenschapper bij @OpenAI die werkt aan GPT-5.1-achtige redeneer modellen.
00:00 – Koude opening en intro
01:29 – “AI vertraging” versus een wilde week van nieuwe frontier modellen
08:03 – Laaghangend fruit, infrastructuur, RL-training en betere data
11:39 – Wat is een redeneer model, in gewone taal
17:02 – Chain-of-thought en het trainen van het denkproces met RL
21:39 – Łukasz’s pad: van logica en Frankrijk naar Google en Kurzweil
24:20 – Binnen het Transformer verhaal en wat “aandacht” echt betekent
28:42 – Van Google Brain naar OpenAI: cultuur, schaal en GPU's
32:49 – Wat is de volgende stap voor pre-training, GPU's en distillatie
37:29 – Kunnen we deze modellen nog steeds begrijpen? Circuits, spaarzaamheid en zwarte dozen
39:42 – GPT-4 → GPT-5 → GPT-5.1: wat is er eigenlijk veranderd
42:40 – Post-training, veiligheid en het leren van GPT-5.1 verschillende tonen
46:16 – Hoe lang moet GPT-5.1 nadenken? Redeneertokens en onregelmatige vaardigheden
47:43 – De puzzel van de vijfjarige die nog steeds frontier modellen breekt
52:22 – Generalisatie, kinderlijke leren en of redeneren genoeg is
53:48 – Voorbij Transformers: ARC, LeCun’s ideeën en multimodale knelpunten
56:10 – GPT-5.1 Codex Max, langlopende agenten en compressie
1:00:06 – Zullen foundation modellen de meeste apps overnemen? De vertaalanalogie en vertrouwen
1:02:34 – Wat moet nog worden opgelost, en waar AI mogelijk naartoe gaat
3,19K
Boven
Positie
Favorieten


