Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
N’ayez pas peur de la grandeur
Lukasz Kaiser (OpenAI) sur le stagiaire en recherche automatisée d'IA :
"Là où les chercheurs en IA ont de grands espoirs pour s'aider eux-mêmes... c'est que si vous pouviez simplement dire 'hé, Codex, voici l'idée, et c'est assez clair ce que je dis, s'il te plaît, implémente-le pour qu'il fonctionne rapidement sur cette configuration de 8 machines ou cette configuration de 100 machines'. Je pense que c'est ce qu'OpenAI [entend par] un stagiaire en IA d'ici la fin de l'année prochaine."

Matt Turck27 nov. 2025
Semaine de Thanksgiving : une conversation épique sur Frontier AI avec @lukaszkaiser - co-auteur de "Attention Is All You Need" (Transformers) et chercheur principal chez @OpenAI travaillant sur les modèles de raisonnement de l'ère GPT-5.1.
00:00 – Ouverture et introduction
01:29 – "Ralentissement de l'IA" contre une semaine sauvage de nouveaux modèles de pointe
08:03 – Fruits à portée de main, infra, formation RL et meilleures données
11:39 – Qu'est-ce qu'un modèle de raisonnement, en termes simples
17:02 – Chaîne de pensée et formation du processus de réflexion avec RL
21:39 – Le parcours de Łukasz : de la logique et de la France à Google et Kurzweil
24:20 – Dans l'histoire des Transformers et ce que signifie vraiment "attention"
28:42 – De Google Brain à OpenAI : culture, échelle et GPU
32:49 – Quelles sont les prochaines étapes pour la pré-formation, les GPU et la distillation
37:29 – Pouvons-nous encore comprendre ces modèles ? Circuits, sparsité et boîtes noires
39:42 – GPT-4 → GPT-5 → GPT-5.1 : ce qui a réellement changé
42:40 – Post-formation, sécurité et enseignement des différentes tonalités à GPT-5.1
46:16 – Combien de temps GPT-5.1 devrait-il réfléchir ? Tokens de raisonnement et capacités irrégulières
47:43 – Le puzzle des points d'un enfant de cinq ans qui casse encore les modèles de pointe
52:22 – Généralisation, apprentissage enfantin et si le raisonnement est suffisant
53:48 – Au-delà des Transformers : ARC, idées de LeCun et goulets d'étranglement multimodaux
56:10 – GPT-5.1 Codex Max, agents à long terme et compaction
1:00:06 – Les modèles de fond vont-ils manger la plupart des applications ? L'analogie de la traduction et la confiance
1:02:34 – Ce qui doit encore être résolu, et où l'IA pourrait aller ensuite
22,09K
Google a publié un nouveau guide "Introduction aux agents", qui discute d'un système agentique "auto-évolutif" (Niveau 4).
"À ce niveau, un système agentique peut identifier les lacunes dans ses propres capacités et créer de nouveaux outils ou même de nouveaux agents pour les combler."


Hadrian Veidt11 nov. 2025
Tiré du nouveau guide de Google "Introduction aux Agents". Il est difficile de surestimer l'ampleur de ce changement.

184,1K
Meilleurs
Classement
Favoris


