"Não vamos alcançar a AGI com LLMs." Yann LeCun diz isso há anos. Agora ele está deixando Meta para provar isso. LeCun inventou redes neurais convolucionais — a tecnologia por trás de toda câmera de smartphone e carro autônomo hoje. Ele ganhou o Prêmio Turing em 2018, o Prêmio Nobel da IA. Aos 65 anos, o líder do laboratório de pesquisa FAIR da Meta está deixando de investir em 600 bilhões de dólares em infraestrutura de IA, apostando contra toda a indústria: Meta, OpenAI, Anthropic, xAI, Google. Quem é @ylecun? Por que ele está indo embora, e por que o próximo passo dele importa? Aqui está a história:
Quem é Yann LeCun? - Criou redes neurais convolucionais (CNNs) na década de 1980 — agora fundamentais para a visão computacional - Construiu o LeNet no Bell Labs → primeira aplicação em grande escala de deep learning (leitura de cheques bancários) - Ganhou o Prêmio Turing (2018) com Hinton & Bengio - Ingressou na Meta 2013, fundou a FAIR (Pesquisa Fundamental em IA) - Construiu uma cultura de pesquisa aberta: publicando livremente, liberando modelos abertos Ele é um dos "padrinhos do deep learning."
Posição Técnica Central de LeCun O LeCun tem sido consistente desde 2022: grandes modelos de linguagem têm limitações fundamentais. Eles preveem padrões de texto, mas não contam: - Compreensão da dinâmica do mundo físico - Memória persistente - Raciocínio causal - Planejamento orientado por objetivos Sua famosa analogia: "Nem conseguimos reproduzir inteligência de gatos ou de ratos, muito menos inteligência de cachorro." Ele defende "modelos mundiais" — sistemas de IA que aprendem observando o mundo físico, não apenas lendo textos. Isso representa não uma rejeição dos LLMs como inúteis, mas uma crença de que eles são insuficientes como caminho para a inteligência geral.
A Tese da Escalabilidade: Por que Meta discorda Os enormes investimentos em computação da indústria se baseiam em uma observação: modelos maiores consistentemente têm desempenho melhor. Do GPT-3 ao GPT-4 mostrou capacidades emergindo em escala que modelos menores não tinham completamente. A aposta: se só a escalabilidade pode alcançar a AGI, quem construir a maior infraestrutura vence. O contra-argumento de LeCun: escala melhora a previsão do texto, não o raciocínio verdadeiro ou a compreensão física do mundo.
A Mudança Organizacional na Meta 2013–2024: A FAIR operou com autonomia significativa - Publicado abertamente, recebeu computação substancial, manteve a cultura acadêmica Abril de 2025: Lançamento de Llama 4 com críticas mistas - Os benchmarks não correspondiam ao GPT-4.5, Gemini 2, DeepSeek-R1 - Relatórios de pressão interna para acelerar A liderança da Meta concluiu que precisava reestruturar os esforços de IA.
Verão de 2025: Meta lança recrutamento agressivo de talentos - CEO Mark Zuckerberg se reúne pessoalmente com pesquisadores em residências em Palo Alto e Lake Tahoe - Bônus de assinatura reportados de até $200M (Ruoming Pang da Apple) - Recrutado da OpenAI, DeepMind, Apple, Anthropic - Mudança de foco: De pesquisa de longo prazo para uma implantação comercial mais rápida
Junho de 2025: A Mudança de Alexandr Wang A Meta investe US$ 14,3 bilhões em 49% da Scale AI, uma empresa de infraestrutura de dados. Traz o fundador Alexandr Wang (28) para o cargo de Diretor de IA, liderando os novos "Meta Superintelligence Labs". Contexto chave: - Wang construiu a Scale AI desde o início de anotação de dados até uma avaliação de US$ 29 Bilhões - Relacionamentos extensos com grandes laboratórios de IA (OpenAI, Google, DoD) - Conhecido pela execução operacional, não por pesquisa acadêmica Isso mudou as estruturas de reporte em toda a organização de IA da Meta.
Reestruturação organizacional (junho-agosto de 2025) Meta cria os "Meta Superintelligence Labs" (MSL) com quatro divisões: 1. Modelos de próxima geração (TBD Lab) 2. FAIR (pesquisa fundamental) 3. Produtos e Pesquisa Aplicada 4. Infraestrutura O FAIR integrou-se a uma estrutura mais ampla, perdendo parte da autonomia anterior. Alguns pesquisadores que valorizavam a cultura acadêmica da FAIR saíram: - Joelle Pineau → Cohere - ~600 posições eliminadas em outubro de 2025
Investimento em infraestrutura em escala sem precedentes Despesas de capital de 2025: US$ 66–72 bilhões Projetos principais: - Prometheus (Ohio): cluster de 1 gigawatt, 2026 - Hyperion (Louisiana): Instalação multi-gigawatt Longo prazo: Meta projeta US$ 600 bilhões em infraestrutura de IA até 2028. Isso representa a maior aposta do setor em escalar arquiteturas atuais — a abordagem que LeCun questionou publicamente.
Novembro de 2025: Saída planejada de LeCun Segundo fontes: - Planos de sair nos próximos meses - Primeiras discussões de arrecadação de recursos para startup de modelos mundiais - Cronograma de pesquisa prevista para 10-20 anos - Foco em arquiteturas alternativas em vez de escalar as existentes Isso significaria abrir mão do acesso a: - US$ 600 bilhões em infraestrutura planejada - Implantação de GPU 1,3M - Um dos maiores recursos de computação de IA do mundo
O que acontece a seguir Nas décadas de 1980 e 1990, o LeCun persistiu com redes neurais quando o campo as abandonou. Sua aposta contrária tornou-se a base da revolução da IA de hoje. Agora ele está fazendo outra aposta contrária: que escalar atinge limites fundamentais, e a verdadeira inteligência exige entender o mundo físico, não apenas prever texto. Meta, OpenAI e Google apostam $600 bilhões+ que ele está errado — que as arquiteturas atuais podem alcançar a AGI apenas pela escala. O julgamento técnico de LeCun vai se mostrar premonitório novamente, ou os escaladores vão vencer? A resposta definirá a próxima década da IA.
423,38K