"Nu vom ajunge la AGI cu LLM-uri." Yann LeCun spune asta de ani de zile. Acum îl lasă pe Meta să demonstreze asta. LeCun a inventat rețelele neuronale convoluționale — tehnologia din spatele fiecărei camere de smartphone și mașini autonome de astăzi. A câștigat Premiul Turing în 2018, Premiul Nobel al AI. La 65 de ani, liderul laboratorului de cercetare FAIR al Meta renunță la infrastructura AI de 600 de miliarde de dolari, pariind împotriva întregii industrii: Meta, OpenAI, Anthropic, xAI, Google. Cine este @ylecun? De ce pleacă și de ce contează următoarea lui mișcare? Iată povestea:
Cine este Yann LeCun? - Au creat rețele neuronale convoluționale (CNN) în anii 1980 — acum fundamentale pentru viziunea computerizată - A construit LeNet la Bell Labs → prima aplicație la scară largă a învățării profunde (citirea cecurilor bancare) - A câștigat Premiul Turing (2018) cu Hinton & Bengio - S-a alăturat Meta 2013, a fondat FAIR (Fundamental AI Research) - Construirea unei culturi a cercetării deschise: publicarea liberă, lansarea de modele deschise Este unul dintre "nașii învățării profunde".
Poziția tehnică de bază a lui LeCun LeCun este consecvent din 2022: modelele mari de limbaj au limitări fundamentale. Ele prezic tiparele de text, dar le lipsesc: - Înțelegerea dinamicii lumii fizice - Memorie persistentă - Raționamentul cauzal - Planificare orientată spre obiective Analogia sa celebră: "Nici măcar nu putem reproduce inteligența pisicilor sau a șobolanilor, cu atât mai puțin inteligența câinilor." El susține "modelele lumii" — sisteme AI care învață observând lumea fizică, nu doar citind text. Aceasta nu reprezintă o respingere a LLM-urilor ca fiind inutile, ci o credință că acestea sunt insuficiente ca cale către inteligența generală.
Teza scalării: De ce Meta nu este de acord Investițiile masive în calcul ale industriei se bazează pe o singură observație: modelele mai mari performează constant mai bine. GPT-3 până la GPT-4 au arătat capabilități care apăreau la scară largă pe care modelele mai mici nu le aveau deloc. Pariul: dacă scalarea singură poate ajunge la AGI, cine construiește cea mai mare infrastructură câștigă. Contraargumentul lui LeCun: scara îmbunătățește predicția textului, nu raționamentul adevărat sau înțelegerea lumii fizice.
Schimbarea organizațională la Meta 2013–2024: FAIR a funcționat cu o autonomie semnificativă - Publicat deschis, a primit o cantitate substanțială de calcul, a menținut cultura academică Aprilie 2025: Lansarea Llama 4 cu recenzii mixte - Benchmark-urile nu se potriveau cu GPT-4.5, Gemini 2, DeepSeek-R1 - Rapoarte privind presiunea internă de accelerare Conducerea Meta a concluzionat că trebuie să restructureze eforturile AI.
Vara 2025: Meta lansează recrutarea agresivă a talentelor - CEO-ul Mark Zuckerberg se întâlnește personal cu cercetători în locuințe din Palo Alto și Lake Tahoe - Bonusuri de semnare raportate până la 200 milioane de dolari (Ruoming Pang de la Apple) - Recrutat de la OpenAI, DeepMind, Apple, Anthropic - Schimbare de focus: De la cercetarea pe termen lung la o implementare comercială mai rapidă
Iunie 2025: Mutarea lui Alexandr Wang Meta investește 14,3 miliarde de dolari pentru 49% din Scale AI, o companie de infrastructură de date. Îl aduce pe fondatorul Alexandr Wang (28 de ani) ca Chief AI Officer, conducând noile "Meta Superintelligence Labs". Context cheie: - Wang a construit Scale AI de la pornirea adnotării datelor până la o evaluare de 29 miliarde de dolari - Relații extinse cu laboratoarele majore de AI (OpenAI, Google, DoD) - Cunoscut pentru execuția operațională, nu pentru cercetare academică Acest lucru a schimbat structurile de raportare în întreaga organizație AI a Meta.
Restructurare organizațională (iunie-august 2025) Meta creează "Meta Superintelligence Labs" (MSL) cu patru divizii: 1. Modele de generație următoare (TBD Lab) 2. FAIR (cercetare fundamentală) 3. Produse & Cercetare Aplicată 4. Infrastructură FAIR s-a integrat într-o structură mai largă, pierzând o parte din autonomia anterioară. Unii cercetători care apreciau cultura academică a FAIR au plecat: - Joelle Pineau → Cohere - ~600 de poziții eliminate în octombrie 2025
Investiții în infrastructură la o scară fără precedent Cheltuieli de capital pentru 2025: 66–72 miliarde de dolari Proiecte majore: - Prometheus (Ohio): cluster de 1 gigawatt, 2026 - Hyperion (Louisiana): facilitate multi-gigawați Pe termen lung: Meta proiectează 600 de miliarde de dolari în infrastructura AI până în 2028. Aceasta reprezintă cea mai mare miză a industriei pe scalarea arhitecturilor actuale — abordarea pe care LeCun a pus-o public sub semnul întrebării.
Noiembrie 2025: Plecarea planificată a lui LeCun Conform surselor: - Planuri de plecare în lunile următoare - Discuții timpurii de strângere de fonduri pentru lansarea unui model mondial - Calendar de cercetare anticipat pe 10-20 de ani - Accent pe arhitecturi alternative față de scalarea celor existente Aceasta ar însemna să renunți la accesul la: - 600 miliarde de dolari în infrastructură planificată - Implementarea GPU-urilor 1,3M - Una dintre cele mai mari resurse de calcul AI din lume
Ce se întâmplă mai departe În anii 1980-90, LeCun a continuat să folosească rețelele neuronale după ce domeniul le-a abandonat. Pariul său contrarian a devenit fundația revoluției AI de astăzi. Acum face un alt pariu contrarian: că scalarea atinge limite fundamentale, iar adevărata inteligență necesită înțelegerea lumii fizice, nu doar prezicerea textului. Meta, OpenAI și Google pariază 600 de miliarde+ de dolari că greșește — că arhitecturile actuale pot ajunge la AGI doar prin scalare. Va fi din nou prevăzătoare judecata tehnică a lui LeCun sau vor câștiga scalatorii? Răspunsul va defini următorul deceniu al inteligenței artificiale.
423,39K