"Não vamos alcançar a AGI com LLMs." Yann LeCun tem dito isso há anos. Agora ele está saindo da Meta para provar isso. LeCun inventou redes neurais convolucionais— a tecnologia por trás de todas as câmeras de smartphones e carros autônomos hoje. Ele ganhou o Prêmio Turing em 2018, o Nobel da IA. Aos 65 anos, o líder do laboratório de pesquisa FAIR da Meta está se afastando de $600 bilhões em infraestrutura de IA, apostando contra toda a indústria: Meta, OpenAI, Anthropic, xAI, Google. Quem é @ylecun? Por que ele está saindo e por que seu próximo movimento é importante? Aqui está a história:
Quem é Yann LeCun? - Criou redes neurais convolucionais (CNNs) na década de 1980 — agora fundamentais para a visão computacional - Construiu o LeNet nos Bell Labs → primeira aplicação em larga escala de aprendizado profundo (leitura de cheques bancários) - Ganhou o Prêmio Turing (2018) com Hinton e Bengio - Entrou na Meta em 2013, fundou o FAIR (Pesquisa Fundamental em IA) - Criou uma cultura de pesquisa aberta: publicando livremente, liberando modelos abertos Ele é um dos "padrinhos do aprendizado profundo."
A Posição Técnica Central de LeCun LeCun tem sido consistente desde 2022: Modelos de linguagem grandes têm limitações fundamentais. Eles preveem padrões de texto, mas carecem de: - Compreensão das dinâmicas do mundo físico - Memória persistente - Raciocínio causal - Planejamento orientado a objetivos Sua famosa analogia: "Não conseguimos nem reproduzir a inteligência de um gato ou de um rato, quanto mais a inteligência de um cachorro." Ele defende os "modelos de mundo" — sistemas de IA que aprendem observando o mundo físico, e não apenas lendo texto. Isso representa não uma rejeição dos LLMs como inúteis, mas uma crença de que são insuficientes como um caminho para a inteligência geral.
A Tese da Escala: Por que a Meta Discorda Os enormes investimentos em computação da indústria baseiam-se em uma observação: modelos maiores consistentemente apresentam um desempenho melhor. A transição do GPT-3 para o GPT-4 mostrou capacidades emergindo em escala que modelos menores careciam completamente. A aposta: se a escala sozinha pode alcançar a AGI, quem construir a maior infraestrutura vence. A contraposição de LeCun: a escala melhora a previsão de texto, não o verdadeiro raciocínio ou a compreensão do mundo físico.
A Mudança Organizacional na Meta 2013–2024: A FAIR operou com autonomia significativa - Publicou abertamente, recebeu computação substancial, manteve a cultura acadêmica Abril de 2025: Llama 4 é lançado com críticas mistas - Os benchmarks não corresponderam ao GPT-4.5, Gemini 2, DeepSeek-R1 - Relatos de pressão interna para acelerar A liderança da Meta concluiu que precisava reestruturar os esforços em IA.
Verão de 2025: Meta lança recrutamento agressivo de talentos - O CEO Mark Zuckerberg se encontra pessoalmente com pesquisadores em suas casas em Palo Alto e Lake Tahoe - Bônus de assinatura reportados de até $200M (Ruoming Pang da Apple) - Recrutados da OpenAI, DeepMind, Apple, Anthropic - Mudança de foco: De pesquisa de longo prazo para implantação comercial mais rápida
Junho de 2025: O Movimento Alexandr Wang A Meta investe $14,3B por 49% da Scale AI, uma empresa de infraestrutura de dados. Traz o fundador Alexandr Wang (28) a bordo como Chief AI Officer, liderando os novos "Meta Superintelligence Labs." Contexto chave: - Wang construiu a Scale AI de uma startup de anotação de dados para uma avaliação de $29B - Relações extensas com grandes laboratórios de IA (OpenAI, Google, DoD) - Conhecido pela execução operacional, não pela pesquisa acadêmica Isto mudou as estruturas de reporte em toda a organização de IA da Meta.
Reestruturação organizacional (Junho-Agosto 2025) A Meta cria os "Meta Superintelligence Labs" (MSL) com quatro divisões: 1. Modelos de próxima geração (TBD Lab) 2. FAIR (pesquisa fundamental) 3. Produtos & Pesquisa Aplicada 4. Infraestrutura FAIR integrado na estrutura mais ampla, perdendo alguma autonomia anterior. Alguns pesquisadores que valorizavam a cultura acadêmica da FAIR partiram: - Joelle Pineau → Cohere - ~600 posições eliminadas em Out 2025
Investimento em infraestrutura a uma escala sem precedentes Despesas de capital de 2025: $66–72B Principais projetos: - Prometheus (Ohio): cluster de 1 gigawatt, 2026 - Hyperion (Louisiana): instalação de múltiplos gigawatts A longo prazo: Meta projeta $600B em infraestrutura de IA até 2028. Isto representa a maior aposta da indústria na escalabilidade das arquiteturas atuais — a abordagem que LeCun questionou publicamente.
Novembro de 2025: Saída Planeada de LeCun De acordo com fontes: - Planos para sair nos próximos meses - Discussões iniciais de angariação de fundos para startup de modelo mundial - Cronograma de pesquisa de 10-20 anos antecipado - Foco em arquiteturas alternativas em vez de escalar as existentes Isso significaria abrir mão do acesso a: - $600B em infraestrutura planeada - 1,3M de implantações de GPU - Um dos maiores recursos de computação de IA do mundo
O que Acontece a Seguir Nos anos 80-90, LeCun persistiu com redes neurais quando o campo as havia abandonado. Sua aposta contrária tornou-se a base da revolução da IA de hoje. Agora ele está fazendo outra aposta contrária: que a escalabilidade atinge limites fundamentais, e que a verdadeira inteligência requer entender o mundo físico, não apenas prever texto. A Meta, OpenAI e Google estão apostando mais de $600B que ele está errado—que as arquiteturas atuais podem alcançar a AGI apenas através da escala. O julgamento técnico de LeCun se mostrará perspicaz novamente, ou os escaladores vencerão? A resposta definirá a próxima década da IA.
423,37K