Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matt Turck
VC à @FirstMarkCap. Animateur : MAD Podcast ; Organisateur : Data Driven NYC, Auteur : MAD Landscape.
. @lukaszkaiser de @OpenAI sur pourquoi la généralisation est toujours le cœur du sujet :
« Je suis fasciné par la généralisation. J'ai toujours pensé que c'était le sujet clé de l'apprentissage automatique en général et de la compréhension de l'intelligence. Le pré-entraînement est un peu différent… il n'augmente pas nécessairement la généralisation. Il utilise juste plus de connaissances. »
« Nous poussons les modèles. Ils apprennent des choses qui sont autour de ce que nous leur enseignons. Ils ont toujours des limitations parce qu'ils ne vivent pas dans le monde physique, parce qu'ils ne sont pas très bons en multimodal, parce que le raisonnement est encore très jeune et qu'il y a beaucoup de bugs dans notre façon de le faire. »
« Quelqu'un a dit, c'est comme conduire vite dans le brouillard. Vous ne savez jamais très clairement à quelle distance ou à quelle proximité vous êtes. »
Épisode complet avec Łukasz ci-dessous - ou recherchez "MAD Podcast avec Matt Turck" sur YouTube, Spotify ou Apple Podcasts.

Matt Turck27 nov. 2025
Semaine de Thanksgiving : une conversation épique sur Frontier AI avec @lukaszkaiser - co-auteur de "Attention Is All You Need" (Transformers) et chercheur principal chez @OpenAI travaillant sur les modèles de raisonnement de l'ère GPT-5.1.
00:00 – Ouverture et introduction
01:29 – "Ralentissement de l'IA" contre une semaine sauvage de nouveaux modèles de pointe
08:03 – Fruits à portée de main, infra, formation RL et meilleures données
11:39 – Qu'est-ce qu'un modèle de raisonnement, en termes simples
17:02 – Chaîne de pensée et formation du processus de réflexion avec RL
21:39 – Le parcours de Łukasz : de la logique et de la France à Google et Kurzweil
24:20 – Dans l'histoire des Transformers et ce que signifie vraiment "attention"
28:42 – De Google Brain à OpenAI : culture, échelle et GPU
32:49 – Quelles sont les prochaines étapes pour la pré-formation, les GPU et la distillation
37:29 – Pouvons-nous encore comprendre ces modèles ? Circuits, sparsité et boîtes noires
39:42 – GPT-4 → GPT-5 → GPT-5.1 : ce qui a réellement changé
42:40 – Post-formation, sécurité et enseignement des différentes tonalités à GPT-5.1
46:16 – Combien de temps GPT-5.1 devrait-il réfléchir ? Tokens de raisonnement et capacités irrégulières
47:43 – Le puzzle des points d'un enfant de cinq ans qui casse encore les modèles de pointe
52:22 – Généralisation, apprentissage enfantin et si le raisonnement est suffisant
53:48 – Au-delà des Transformers : ARC, idées de LeCun et goulets d'étranglement multimodaux
56:10 – GPT-5.1 Codex Max, agents à long terme et compaction
1:00:06 – Les modèles de fond vont-ils manger la plupart des applications ? L'analogie de la traduction et la confiance
1:02:34 – Ce qui doit encore être résolu, et où l'IA pourrait aller ensuite
3,19K
Meilleurs
Classement
Favoris


