"Non raggiungeremo l'AGI con i LLM." Yann LeCun lo dice da anni. Ora sta lasciando Meta per dimostrarlo. LeCun ha inventato le reti neurali convoluzionali—la tecnologia dietro ogni fotocamera di smartphone e auto a guida autonoma oggi. Ha vinto il Premio Turing nel 2018, il Nobel dell'AI. A 65 anni, il leader del laboratorio di ricerca FAIR di Meta sta abbandonando 600 miliardi di dollari in infrastrutture AI, scommettendo contro l'intero settore: Meta, OpenAI, Anthropic, xAI, Google. Chi è @ylecun? Perché sta partendo e perché il suo prossimo passo è importante? Ecco la storia:
Chi è Yann LeCun? - Ha creato le reti neurali convoluzionali (CNN) negli anni '80 — ora fondamentali per la visione artificiale - Ha costruito LeNet presso i Bell Labs → prima applicazione su larga scala del deep learning (lettura di assegni bancari) - Ha vinto il premio Turing (2018) con Hinton e Bengio - È entrato in Meta nel 2013, ha fondato FAIR (Fundamental AI Research) - Ha costruito una cultura di ricerca aperta: pubblicando liberamente, rilasciando modelli aperti È uno dei "padrini del deep learning."
La posizione tecnica fondamentale di LeCun LeCun è stato coerente dal 2022: i modelli di linguaggio di grandi dimensioni hanno limitazioni fondamentali. Predicono schemi testuali ma mancano di: - Comprensione delle dinamiche del mondo fisico - Memoria persistente - Ragionamento causale - Pianificazione orientata agli obiettivi La sua famosa analogia: "Non possiamo nemmeno riprodurre l'intelligenza dei gatti o dei ratti, figuriamoci quella dei cani." Lui sostiene i "modelli del mondo" — sistemi di intelligenza artificiale che apprendono osservando il mondo fisico, non solo leggendo testi. Questo rappresenta non un rifiuto degli LLM come inutili, ma una convinzione che siano insufficienti come percorso verso l'intelligenza generale.
La Tesi della Scalabilità: Perché Meta Non È D'Accordo Gli enormi investimenti in calcolo dell'industria si basano su un'osservazione: modelli più grandi performano costantemente meglio. Da GPT-3 a GPT-4 sono emerse capacità su scala che i modelli più piccoli non avevano affatto. La scommessa: se la scalabilità da sola può raggiungere l'AGI, chi costruisce l'infrastruttura più grande vince. La controreplica di LeCun: la scala migliora la previsione del testo, non il vero ragionamento o la comprensione del mondo fisico.
Il cambiamento organizzativo in Meta 2013–2024: FAIR ha operato con una notevole autonomia - Pubblicato apertamente, ha ricevuto un notevole supporto computazionale, ha mantenuto una cultura accademica Aprile 2025: Llama 4 lanciato con recensioni miste - I benchmark non corrispondevano a GPT-4.5, Gemini 2, DeepSeek-R1 - Segnalazioni di pressioni interne per accelerare La leadership di Meta ha concluso che era necessario ristrutturare gli sforzi nell'IA.
Estate 2025: Meta lancia una aggressiva campagna di reclutamento di talenti - Il CEO Mark Zuckerberg incontra personalmente i ricercatori a casa loro a Palo Alto e Lake Tahoe - Premi di firma riportati fino a 200 milioni di dollari (Ruoming Pang da Apple) - Reclutati da OpenAI, DeepMind, Apple, Anthropic - Cambio di focus: Da ricerca a lungo termine verso un'implementazione commerciale più rapida
Giugno 2025: Il Movimento di Alexandr Wang Meta investe 14,3 miliardi di dollari per il 49% di Scale AI, un'azienda di infrastrutture dati. Porta a bordo il fondatore Alexandr Wang (28) come Chief AI Officer, guidando i nuovi "Meta Superintelligence Labs." Contesto chiave: - Wang ha costruito Scale AI da startup di annotazione dati a una valutazione di 29 miliardi di dollari - Ampie relazioni con i principali laboratori di AI (OpenAI, Google, DoD) - Conosciuto per l'esecuzione operativa, non per la ricerca accademica Questo ha cambiato le strutture di reporting in tutta l'organizzazione AI di Meta.
Ristrutturazione organizzativa (giugno-agosto 2025) Meta crea "Meta Superintelligence Labs" (MSL) con quattro divisioni: 1. Modelli di nuova generazione (TBD Lab) 2. FAIR (ricerca fondamentale) 3. Prodotti e Ricerca Applicata 4. Infrastruttura FAIR integrato nella struttura più ampia, perdendo parte della precedente autonomia. Alcuni ricercatori che apprezzavano la cultura accademica di FAIR hanno lasciato: - Joelle Pineau → Cohere - ~600 posizioni eliminate nell'ottobre 2025
Investimenti in infrastrutture su scala senza precedenti Spese in conto capitale 2025: $66–72 miliardi Progetti principali: - Prometheus (Ohio): cluster da 1 gigawatt, 2026 - Hyperion (Louisiana): impianto multi-gigawatt A lungo termine: Meta prevede $600 miliardi in infrastrutture AI entro il 2028. Questo rappresenta la scommessa più grande dell'industria per scalare le architetture attuali — l'approccio che LeCun ha messo in discussione pubblicamente.
Novembre 2025: Partenza programmata di LeCun Secondo fonti: - Piani di partenza nei prossimi mesi - Discussioni preliminari di raccolta fondi per una startup di modelli mondiali - Si prevede un orizzonte di ricerca di 10-20 anni - Focus su architetture alternative rispetto all'espansione di quelle esistenti Questo significherebbe rinunciare all'accesso a: - 600 miliardi di dollari in infrastrutture pianificate - 1,3 milioni di distribuzioni GPU - Una delle più grandi risorse di calcolo AI al mondo
Cosa succede dopo Negli anni '80 e '90, LeCun ha perseverato con le reti neurali quando il campo le aveva abbandonate. La sua scommessa contraria è diventata la base della rivoluzione dell'AI di oggi. Ora sta facendo un'altra scommessa contraria: che la scalabilità raggiunge limiti fondamentali e che la vera intelligenza richiede di comprendere il mondo fisico, non solo di prevedere il testo. Meta, OpenAI e Google stanno scommettendo oltre 600 miliardi di dollari che si sbagliano: che le architetture attuali possono raggiungere l'AGI solo attraverso la scala. Il giudizio tecnico di LeCun si dimostrerà ancora una volta lungimirante, o vinceranno i sostenitori della scalabilità? La risposta definirà il prossimo decennio dell'AI.
421,64K