Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Não vamos alcançar a AGI com LLMs."
Yann LeCun tem dito isso há anos. Agora ele está saindo da Meta para provar isso.
LeCun inventou redes neurais convolucionais— a tecnologia por trás de todas as câmeras de smartphones e carros autônomos hoje. Ele ganhou o Prêmio Turing em 2018, o Nobel da IA.
Aos 65 anos, o líder do laboratório de pesquisa FAIR da Meta está se afastando de $600 bilhões em infraestrutura de IA, apostando contra toda a indústria: Meta, OpenAI, Anthropic, xAI, Google.
Quem é @ylecun? Por que ele está saindo e por que seu próximo movimento é importante? Aqui está a história:
Quem é Yann LeCun?
- Criou redes neurais convolucionais (CNNs) na década de 1980 — agora fundamentais para a visão computacional
- Construiu o LeNet nos Bell Labs → primeira aplicação em larga escala de aprendizado profundo (leitura de cheques bancários)
- Ganhou o Prêmio Turing (2018) com Hinton e Bengio
- Entrou na Meta em 2013, fundou o FAIR (Pesquisa Fundamental em IA)
- Criou uma cultura de pesquisa aberta: publicando livremente, liberando modelos abertos
Ele é um dos "padrinhos do aprendizado profundo."

A Posição Técnica Central de LeCun
LeCun tem sido consistente desde 2022: Modelos de linguagem grandes têm limitações fundamentais. Eles preveem padrões de texto, mas carecem de:
- Compreensão das dinâmicas do mundo físico
- Memória persistente
- Raciocínio causal
- Planejamento orientado a objetivos
Sua famosa analogia: "Não conseguimos nem reproduzir a inteligência de um gato ou de um rato, quanto mais a inteligência de um cachorro."
Ele defende os "modelos de mundo" — sistemas de IA que aprendem observando o mundo físico, e não apenas lendo texto. Isso representa não uma rejeição dos LLMs como inúteis, mas uma crença de que são insuficientes como um caminho para a inteligência geral.

A Tese da Escala: Por que a Meta Discorda
Os enormes investimentos em computação da indústria baseiam-se em uma observação: modelos maiores consistentemente apresentam um desempenho melhor. A transição do GPT-3 para o GPT-4 mostrou capacidades emergindo em escala que modelos menores careciam completamente.
A aposta: se a escala sozinha pode alcançar a AGI, quem construir a maior infraestrutura vence.
A contraposição de LeCun: a escala melhora a previsão de texto, não o verdadeiro raciocínio ou a compreensão do mundo físico.
A Mudança Organizacional na Meta
2013–2024: A FAIR operou com autonomia significativa
- Publicou abertamente, recebeu computação substancial, manteve a cultura acadêmica
Abril de 2025: Llama 4 é lançado com críticas mistas
- Os benchmarks não corresponderam ao GPT-4.5, Gemini 2, DeepSeek-R1
- Relatos de pressão interna para acelerar
A liderança da Meta concluiu que precisava reestruturar os esforços em IA.

Verão de 2025: Meta lança recrutamento agressivo de talentos
- O CEO Mark Zuckerberg se encontra pessoalmente com pesquisadores em suas casas em Palo Alto e Lake Tahoe
- Bônus de assinatura reportados de até $200M (Ruoming Pang da Apple)
- Recrutados da OpenAI, DeepMind, Apple, Anthropic
- Mudança de foco: De pesquisa de longo prazo para implantação comercial mais rápida

Junho de 2025: O Movimento Alexandr Wang
A Meta investe $14,3B por 49% da Scale AI, uma empresa de infraestrutura de dados.
Traz o fundador Alexandr Wang (28) a bordo como Chief AI Officer, liderando os novos "Meta Superintelligence Labs."
Contexto chave:
- Wang construiu a Scale AI de uma startup de anotação de dados para uma avaliação de $29B
- Relações extensas com grandes laboratórios de IA (OpenAI, Google, DoD)
- Conhecido pela execução operacional, não pela pesquisa acadêmica
Isto mudou as estruturas de reporte em toda a organização de IA da Meta.

Reestruturação organizacional (Junho-Agosto 2025)
A Meta cria os "Meta Superintelligence Labs" (MSL) com quatro divisões:
1. Modelos de próxima geração (TBD Lab)
2. FAIR (pesquisa fundamental)
3. Produtos & Pesquisa Aplicada
4. Infraestrutura
FAIR integrado na estrutura mais ampla, perdendo alguma autonomia anterior.
Alguns pesquisadores que valorizavam a cultura acadêmica da FAIR partiram:
- Joelle Pineau → Cohere
- ~600 posições eliminadas em Out 2025

Investimento em infraestrutura a uma escala sem precedentes
Despesas de capital de 2025: $66–72B
Principais projetos:
- Prometheus (Ohio): cluster de 1 gigawatt, 2026
- Hyperion (Louisiana): instalação de múltiplos gigawatts
A longo prazo: Meta projeta $600B em infraestrutura de IA até 2028.
Isto representa a maior aposta da indústria na escalabilidade das arquiteturas atuais — a abordagem que LeCun questionou publicamente.


Novembro de 2025: Saída Planeada de LeCun
De acordo com fontes:
- Planos para sair nos próximos meses
- Discussões iniciais de angariação de fundos para startup de modelo mundial
- Cronograma de pesquisa de 10-20 anos antecipado
- Foco em arquiteturas alternativas em vez de escalar as existentes
Isso significaria abrir mão do acesso a:
- $600B em infraestrutura planeada
- 1,3M de implantações de GPU
- Um dos maiores recursos de computação de IA do mundo

O que Acontece a Seguir
Nos anos 80-90, LeCun persistiu com redes neurais quando o campo as havia abandonado. Sua aposta contrária tornou-se a base da revolução da IA de hoje.
Agora ele está fazendo outra aposta contrária: que a escalabilidade atinge limites fundamentais, e que a verdadeira inteligência requer entender o mundo físico, não apenas prever texto.
A Meta, OpenAI e Google estão apostando mais de $600B que ele está errado—que as arquiteturas atuais podem alcançar a AGI apenas através da escala.
O julgamento técnico de LeCun se mostrará perspicaz novamente, ou os escaladores vencerão?
A resposta definirá a próxima década da IA.

423,37K
Top
Classificação
Favoritos

