"We zullen AGI niet bereiken met LLM's." Yann LeCun zegt dit al jaren. Nu verlaat hij Meta om het te bewijzen. LeCun heeft convolutionele neurale netwerken uitgevonden—de technologie achter elke smartphonecamera en zelfrijdende auto van vandaag. Hij won de Turing Award in 2018, de Nobelprijs voor AI. Op 65-jarige leeftijd loopt de leider van Meta's FAIR-onderzoekslaboratorium weg van $600 miljard aan AI-infrastructuur, en wedt tegen de hele industrie: Meta, OpenAI, Anthropic, xAI, Google. Wie is @ylecun? Waarom vertrekt hij, en waarom is zijn volgende stap belangrijk? Hier is het verhaal:
Wie is Yann LeCun? - Creëerde convolutionele neurale netwerken (CNN's) in de jaren '80 — nu fundamenteel voor computer vision - Bouwde LeNet bij Bell Labs → eerste grootschalige toepassing van deep learning (bankafschrift lezen) - Ontving de Turing Award (2018) samen met Hinton & Bengio - Trad in 2013 toe tot Meta, richtte FAIR (Fundamental AI Research) op - Bouwde een cultuur van open onderzoek: vrij publiceren, open modellen vrijgeven Hij is een van de "godfathers van deep learning."
LeCun's Kerntechnische Positie LeCun is sinds 2022 consistent: Grote taalmodellen hebben fundamentele beperkingen. Ze voorspellen tekstpatronen maar missen: - Begrip van de dynamiek van de fysieke wereld - Persistente geheugen - Causaal redeneren - Doelgerichte planning Zijn beroemde analogie: "We kunnen zelfs de intelligentie van katten of ratten niet reproduceren, laat staan de intelligentie van honden." Hij pleit voor "wereldmodellen" — AI-systemen die leren door de fysieke wereld te observeren, niet alleen door tekst te lezen. Dit vertegenwoordigt geen afwijzing van LLM's als nutteloos, maar een overtuiging dat ze onvoldoende zijn als een pad naar algemene intelligentie.
De Schaaltheorie: Waarom Meta het niet eens is De enorme investeringen in rekenkracht in de industrie zijn gebaseerd op één observatie: grotere modellen presteren consequent beter. GPT-3 tot GPT-4 toonde capaciteiten die op schaal naar voren kwamen en die kleinere modellen volledig ontbraken. De weddenschap: als schaling alleen AGI kan bereiken, wint degene die de grootste infrastructuur bouwt. LeCun's tegenargument: schaling verbetert tekstvoorspelling, niet echt redeneren of begrip van de fysieke wereld.
De Organisatorische Verschuiving bij Meta 2013–2024: FAIR opereerde met aanzienlijke autonomie - Openlijk gepubliceerd, ontving aanzienlijke rekencapaciteit, handhaafde een academische cultuur April 2025: Llama 4 lanceert met gemengde recensies - Benchmarks kwamen niet overeen met GPT-4.5, Gemini 2, DeepSeek-R1 - Rapporten van interne druk om te versnellen De leiding van Meta concludeerde dat ze hun AI-inspanningen moesten herstructureren.
Zomer 2025: Meta lanceert agressieve wervingscampagne - CEO Mark Zuckerberg ontmoet persoonlijk onderzoekers bij hen thuis in Palo Alto en Lake Tahoe - Ondertekenbonussen gerapporteerd tot $200M (Ruoming Pang van Apple) - Geworven van OpenAI, DeepMind, Apple, Anthropic - Focusverschuiving: Van langetermijnonderzoek naar snellere commerciële implementatie
Juni 2025: De Alexandr Wang Beweging Meta investeert $14,3B voor 49% van Scale AI, een data-infrastructuurbedrijf. Brengt oprichter Alexandr Wang (28) aan boord als Chief AI Officer, die de nieuwe "Meta Superintelligence Labs" leidt. Belangrijke context: - Wang bouwde Scale AI van een data-annotatie-startup naar een waardering van $29B - Uitgebreide relaties met grote AI-laboratoria (OpenAI, Google, DoD) - Bekend om operationele uitvoering, niet academisch onderzoek Dit veranderde de rapportagestructuren binnen Meta's AI-organisatie.
Organisatorische herstructurering (juni-augustus 2025) Meta creëert "Meta Superintelligence Labs" (MSL) met vier divisies: 1. Modellen van de volgende generatie (TBD Lab) 2. FAIR (fundamenteel onderzoek) 3. Producten & Toegepast Onderzoek 4. Infrastructuur FAIR geïntegreerd in bredere structuur, waarbij enige eerdere autonomie verloren gaat. Sommige onderzoekers die de academische cultuur van FAIR waardeerden, vertrokken: - Joelle Pineau → Cohere - ~600 posities geëlimineerd in oktober 2025
Infrastructuurinvesteringen op ongekende schaal Kapitaaluitgaven 2025: $66–72B Belangrijke projecten: - Prometheus (Ohio): 1 gigawatt cluster, 2026 - Hyperion (Louisiana): Multi-gigawatt faciliteit Langetermijn: Meta investeert $600B in AI-infrastructuur tot 2028. Dit vertegenwoordigt de grootste inzet van de industrie op het schalen van huidige architecturen — de aanpak die LeCun publiekelijk in twijfel heeft getrokken.
November 2025: LeCun's geplande vertrek Volgens bronnen: - Plannen om in de komende maanden te vertrekken - Vroegtijdige fondsenwervingsdiscussies voor wereldmodel-startup - 10-20 jaar onderzoeksperiode verwacht - Focus op alternatieve architecturen versus het opschalen van bestaande Dit zou betekenen dat er afstand gedaan wordt van toegang tot: - $600B aan geplande infrastructuur - 1,3M GPU-implementatie - Een van de grootste AI-rekenbronnen ter wereld
Wat gebeurt er nu In de jaren '80 en '90 hield LeCun vol met neurale netwerken toen het veld ze had opgegeven. Zijn contrarische weddenschap werd de basis van de huidige AI-revolutie. Nu doet hij opnieuw een contrarische weddenschap: dat schaling fundamentele limieten bereikt, en echte intelligentie vereist begrip van de fysieke wereld, niet alleen het voorspellen van tekst. Meta, OpenAI en Google wedden meer dan $600 miljard dat hij ongelijk heeft - dat huidige architecturen AGI kunnen bereiken alleen door schaal. Zal LeCun's technische oordeel opnieuw vooruitziend blijken, of zullen de schalers winnen? Het antwoord zal het volgende decennium van AI bepalen.
423,37K