"Nous n'atteindrons pas l'AGI avec des LLM." Yann LeCun le dit depuis des années. Maintenant, il quitte Meta pour le prouver. LeCun a inventé les réseaux de neurones convolutionnels—la technologie derrière chaque caméra de smartphone et chaque voiture autonome aujourd'hui. Il a remporté le prix Turing en 2018, le prix Nobel de l'IA. À 65 ans, le leader du laboratoire de recherche FAIR de Meta s'éloigne de 600 milliards de dollars d'infrastructure IA, pariant contre toute l'industrie : Meta, OpenAI, Anthropic, xAI, Google. Qui est @ylecun ? Pourquoi part-il, et pourquoi son prochain mouvement est-il important ? Voici l'histoire :
Qui est Yann LeCun ? - Créateur des réseaux de neurones convolutionnels (CNN) dans les années 1980 — désormais fondamentaux pour la vision par ordinateur - A construit LeNet chez Bell Labs → première application à grande échelle de l'apprentissage profond (lecture de chèques bancaires) - A remporté le prix Turing (2018) avec Hinton et Bengio - A rejoint Meta en 2013, a fondé FAIR (Fundamental AI Research) - A construit une culture de recherche ouverte : publication libre, modèles ouverts C'est l'un des "pères fondateurs de l'apprentissage profond."
La position technique fondamentale de LeCun LeCun est resté constant depuis 2022 : les grands modèles de langage ont des limitations fondamentales. Ils prédisent des motifs textuels mais manquent de : - Compréhension des dynamiques du monde physique - Mémoire persistante - Raisonnement causal - Planification orientée vers un objectif Sa célèbre analogie : "Nous ne pouvons même pas reproduire l'intelligence des chats ou des rats, sans parler de l'intelligence des chiens." Il plaide pour des "modèles du monde" — des systèmes d'IA qui apprennent en observant le monde physique, et pas seulement en lisant du texte. Cela ne représente pas un rejet des LLMs comme inutiles, mais une croyance qu'ils sont insuffisants comme voie vers l'intelligence générale.
La thèse de l'échelle : pourquoi Meta n'est pas d'accord Les énormes investissements en calcul de l'industrie reposent sur une observation : les modèles plus grands performent systématiquement mieux. GPT-3 à GPT-4 a montré des capacités émergentes à grande échelle que les modèles plus petits n'avaient pas du tout. Le pari : si l'échelle seule peut atteindre l'AGI, celui qui construit l'infrastructure la plus grande gagne. La contre-argumentation de LeCun : l'échelle améliore la prédiction de texte, pas le véritable raisonnement ou la compréhension du monde physique.
Le changement organisationnel chez Meta 2013–2024 : FAIR a fonctionné avec une autonomie significative - Publié ouvertement, a reçu des ressources de calcul substantielles, a maintenu une culture académique Avril 2025 : Llama 4 est lancé avec des critiques mitigées - Les benchmarks ne correspondaient pas à GPT-4.5, Gemini 2, DeepSeek-R1 - Rapports de pression interne pour accélérer La direction de Meta a conclu qu'elle devait restructurer ses efforts en IA.
Été 2025 : Meta lance un recrutement agressif de talents - Le PDG Mark Zuckerberg rencontre personnellement des chercheurs chez eux à Palo Alto et Lake Tahoe - Des primes à la signature rapportées jusqu'à 200 millions de dollars (Ruoming Pang d'Apple) - Recrutés d'OpenAI, DeepMind, Apple, Anthropic - Changement de focus : De la recherche à long terme vers un déploiement commercial plus rapide
Juin 2025 : Le mouvement Alexandr Wang Meta investit 14,3 milliards de dollars pour 49 % de Scale AI, une entreprise d'infrastructure de données. Fait entrer le fondateur Alexandr Wang (28 ans) en tant que Chief AI Officer, dirigeant les nouveaux "Meta Superintelligence Labs." Contexte clé : - Wang a construit Scale AI, passant d'une startup d'annotation de données à une valorisation de 29 milliards de dollars - Relations étendues avec les principaux laboratoires d'IA (OpenAI, Google, DoD) - Connu pour son exécution opérationnelle, pas pour la recherche académique Cela a modifié les structures de reporting au sein de l'organisation IA de Meta.
Restructuration organisationnelle (juin-août 2025) Meta crée "Meta Superintelligence Labs" (MSL) avec quatre divisions : 1. Modèles de nouvelle génération (TBD Lab) 2. FAIR (recherche fondamentale) 3. Produits et recherche appliquée 4. Infrastructure FAIR intégré dans une structure plus large, perdant une partie de son autonomie précédente. Certains chercheurs qui appréciaient la culture académique de FAIR sont partis : - Joelle Pineau → Cohere - ~600 postes supprimés en oct 2025
Investissement dans l'infrastructure à une échelle sans précédent Dépenses en capital 2025 : 66 à 72 milliards de dollars Projets majeurs : - Prometheus (Ohio) : cluster d'1 gigawatt, 2026 - Hyperion (Louisiane) : installation multi-gigawatts À long terme : Meta prévoit 600 milliards de dollars pour l'infrastructure AI d'ici 2028. Cela représente le plus gros pari de l'industrie sur l'extension des architectures actuelles — l'approche que LeCun a publiquement remise en question.
Novembre 2025 : Départ prévu de LeCun Selon des sources : - Plans de départ dans les mois à venir - Discussions préliminaires sur le financement pour une startup de modèle mondial - Un calendrier de recherche de 10 à 20 ans anticipé - Concentration sur des architectures alternatives par rapport à l'extension de celles existantes Cela signifierait renoncer à l'accès à : - 600 milliards de dollars d'infrastructure prévue - Déploiement de 1,3 million de GPU - L'une des plus grandes ressources de calcul en IA au monde
Que se passe-t-il ensuite Dans les années 1980-90, LeCun a persisté avec les réseaux de neurones alors que le domaine les avait abandonnés. Son pari contrarien est devenu la fondation de la révolution de l'IA d'aujourd'hui. Maintenant, il fait un autre pari contrarien : que l'échelle atteint des limites fondamentales, et que la véritable intelligence nécessite de comprendre le monde physique, pas seulement de prédire du texte. Meta, OpenAI et Google parient plus de 600 milliards de dollars qu'il a tort - que les architectures actuelles peuvent atteindre l'AGI uniquement par l'échelle. Le jugement technique de LeCun prouvera-t-il encore une fois qu'il est perspicace, ou les scalers gagneront-ils ? La réponse définira la prochaine décennie de l'IA.
421,65K