Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Semaine de Thanksgiving : une conversation épique sur Frontier AI avec @lukaszkaiser - co-auteur de "Attention Is All You Need" (Transformers) et chercheur principal chez @OpenAI travaillant sur les modèles de raisonnement de l'ère GPT-5.1.
00:00 – Ouverture et introduction
01:29 – "Ralentissement de l'IA" contre une semaine sauvage de nouveaux modèles de pointe
08:03 – Fruits à portée de main, infra, formation RL et meilleures données
11:39 – Qu'est-ce qu'un modèle de raisonnement, en termes simples
17:02 – Chaîne de pensée et formation du processus de réflexion avec RL
21:39 – Le parcours de Łukasz : de la logique et de la France à Google et Kurzweil
24:20 – Dans l'histoire des Transformers et ce que signifie vraiment "attention"
28:42 – De Google Brain à OpenAI : culture, échelle et GPU
32:49 – Quelles sont les prochaines étapes pour la pré-formation, les GPU et la distillation
37:29 – Pouvons-nous encore comprendre ces modèles ? Circuits, sparsité et boîtes noires
39:42 – GPT-4 → GPT-5 → GPT-5.1 : ce qui a réellement changé
42:40 – Post-formation, sécurité et enseignement des différentes tonalités à GPT-5.1
46:16 – Combien de temps GPT-5.1 devrait-il réfléchir ? Tokens de raisonnement et capacités irrégulières
47:43 – Le puzzle des points d'un enfant de cinq ans qui casse encore les modèles de pointe
...
Meilleurs
Classement
Favoris

