*Important* lancement d'IA open source aujourd'hui. L'Amérique peut-elle gagner la course à l'Open AI ? Ma conversation avec @natolambert et @soldni de @allen_ai sur le lancement d'Olmo 3 00:00 – Introduction 00:39 – Bienvenue & l'annonce importante d'aujourd'hui 01:18 – Présentation de la famille de modèles Olmo 3 02:07 – Ce que sont vraiment les "modèles de base" (et pourquoi ils sont importants) 05:51 – Dolma 3 : les données derrière Olmo 3 08:06 – Performance vs Qwen, Gemma, DeepSeek 10:28 – Ce que signifie véritablement open source (et pourquoi c'est rare) 12:51 – Points de contrôle intermédiaires, transparence, et pourquoi AI2 publie tout 16:37 – Pourquoi Qwen est partout (y compris dans les startups américaines) 18:31 – Pourquoi les laboratoires chinois adoptent l'open source (et pourquoi les laboratoires américains ne le font pas) 20:28 – À l'intérieur d'ATOM : la réponse des États-Unis à l'essor des modèles chinois 22:13 – L'essor des "modèles de réflexion" et l'échelle de temps d'inférence 35:58 – Le pipeline complet d'Olmo, expliqué simplement 46:52 – Pré-formation : données, échelle, et éviter les pics catastrophiques 50:27 – Formation intermédiaire (réparation de queue) et éviter les fuites de test 52:06 – Pourquoi la formation sur le long contexte est importante 55:28 – SFT : construire la base pour le raisonnement 1:04:53 – Réglage des préférences & pourquoi DPO fonctionne toujours 1:10:51 – La partie difficile : RLVR, longues chaînes de raisonnement, et douleur d'infrastructure 1:13:59 – Pourquoi RL est si techniquement brutal 1:18:17 – Taxe de complexité vs hype AGI 1:21:58 – Comment tout le monde peut contribuer à l'avenir de l'IA 1:27:26 – Pensées de clôture
... course d'**AI** open source, d'oh 🤦‍♂️
33,56K