Semaine de Thanksgiving : une conversation épique sur Frontier AI avec @lukaszkaiser - co-auteur de "Attention Is All You Need" (Transformers) et chercheur principal chez @OpenAI travaillant sur les modèles de raisonnement de l'ère GPT-5.1. 00:00 – Ouverture et introduction 01:29 – "Ralentissement de l'IA" contre une semaine sauvage de nouveaux modèles de pointe 08:03 – Fruits à portée de main, infra, formation RL et meilleures données 11:39 – Qu'est-ce qu'un modèle de raisonnement, en termes simples 17:02 – Chaîne de pensée et formation du processus de réflexion avec RL 21:39 – Le parcours de Łukasz : de la logique et de la France à Google et Kurzweil 24:20 – Dans l'histoire des Transformers et ce que signifie vraiment "attention" 28:42 – De Google Brain à OpenAI : culture, échelle et GPU 32:49 – Quelles sont les prochaines étapes pour la pré-formation, les GPU et la distillation 37:29 – Pouvons-nous encore comprendre ces modèles ? Circuits, sparsité et boîtes noires 39:42 – GPT-4 → GPT-5 → GPT-5.1 : ce qui a réellement changé 42:40 – Post-formation, sécurité et enseignement des différentes tonalités à GPT-5.1 46:16 – Combien de temps GPT-5.1 devrait-il réfléchir ? Tokens de raisonnement et capacités irrégulières 47:43 – Le puzzle des points d'un enfant de cinq ans qui casse encore les modèles de pointe ...