Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
*Important* lancement d'IA open source aujourd'hui. L'Amérique peut-elle gagner la course à l'Open AI ? Ma conversation avec @natolambert et @soldni de @allen_ai sur le lancement d'Olmo 3
00:00 – Introduction
00:39 – Bienvenue & l'annonce importante d'aujourd'hui
01:18 – Présentation de la famille de modèles Olmo 3
02:07 – Ce que sont vraiment les "modèles de base" (et pourquoi ils sont importants)
05:51 – Dolma 3 : les données derrière Olmo 3
08:06 – Performance vs Qwen, Gemma, DeepSeek
10:28 – Ce que signifie véritablement open source (et pourquoi c'est rare)
12:51 – Points de contrôle intermédiaires, transparence, et pourquoi AI2 publie tout
16:37 – Pourquoi Qwen est partout (y compris dans les startups américaines)
18:31 – Pourquoi les laboratoires chinois adoptent l'open source (et pourquoi les laboratoires américains ne le font pas)
20:28 – À l'intérieur d'ATOM : la réponse des États-Unis à l'essor des modèles chinois
22:13 – L'essor des "modèles de réflexion" et l'échelle de temps d'inférence
35:58 – Le pipeline complet d'Olmo, expliqué simplement
46:52 – Pré-formation : données, échelle, et éviter les pics catastrophiques
50:27 – Formation intermédiaire (réparation de queue) et éviter les fuites de test
52:06 – Pourquoi la formation sur le long contexte est importante
55:28 – SFT : construire la base pour le raisonnement
1:04:53 – Réglage des préférences & pourquoi DPO fonctionne toujours
1:10:51 – La partie difficile : RLVR, longues chaînes de raisonnement, et douleur d'infrastructure
1:13:59 – Pourquoi RL est si techniquement brutal
1:18:17 – Taxe de complexité vs hype AGI
1:21:58 – Comment tout le monde peut contribuer à l'avenir de l'IA
1:27:26 – Pensées de clôture
... course d'**AI** open source, d'oh 🤦♂️
33,56K
Meilleurs
Classement
Favoris

