Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Não vamos alcançar a AGI com LLMs."
Yann LeCun diz isso há anos. Agora ele está deixando Meta para provar isso.
LeCun inventou redes neurais convolucionais — a tecnologia por trás de toda câmera de smartphone e carro autônomo hoje. Ele ganhou o Prêmio Turing em 2018, o Prêmio Nobel da IA.
Aos 65 anos, o líder do laboratório de pesquisa FAIR da Meta está deixando de investir em 600 bilhões de dólares em infraestrutura de IA, apostando contra toda a indústria: Meta, OpenAI, Anthropic, xAI, Google.
Quem é @ylecun? Por que ele está indo embora, e por que o próximo passo dele importa? Aqui está a história:
Quem é Yann LeCun?
- Criou redes neurais convolucionais (CNNs) na década de 1980 — agora fundamentais para a visão computacional
- Construiu o LeNet no Bell Labs → primeira aplicação em grande escala de deep learning (leitura de cheques bancários)
- Ganhou o Prêmio Turing (2018) com Hinton & Bengio
- Ingressou na Meta 2013, fundou a FAIR (Pesquisa Fundamental em IA)
- Construiu uma cultura de pesquisa aberta: publicando livremente, liberando modelos abertos
Ele é um dos "padrinhos do deep learning."

Posição Técnica Central de LeCun
O LeCun tem sido consistente desde 2022: grandes modelos de linguagem têm limitações fundamentais. Eles preveem padrões de texto, mas não contam:
- Compreensão da dinâmica do mundo físico
- Memória persistente
- Raciocínio causal
- Planejamento orientado por objetivos
Sua famosa analogia: "Nem conseguimos reproduzir inteligência de gatos ou de ratos, muito menos inteligência de cachorro."
Ele defende "modelos mundiais" — sistemas de IA que aprendem observando o mundo físico, não apenas lendo textos. Isso representa não uma rejeição dos LLMs como inúteis, mas uma crença de que eles são insuficientes como caminho para a inteligência geral.

A Tese da Escalabilidade: Por que Meta discorda
Os enormes investimentos em computação da indústria se baseiam em uma observação: modelos maiores consistentemente têm desempenho melhor. Do GPT-3 ao GPT-4 mostrou capacidades emergindo em escala que modelos menores não tinham completamente.
A aposta: se só a escalabilidade pode alcançar a AGI, quem construir a maior infraestrutura vence.
O contra-argumento de LeCun: escala melhora a previsão do texto, não o raciocínio verdadeiro ou a compreensão física do mundo.
A Mudança Organizacional na Meta
2013–2024: A FAIR operou com autonomia significativa
- Publicado abertamente, recebeu computação substancial, manteve a cultura acadêmica
Abril de 2025: Lançamento de Llama 4 com críticas mistas
- Os benchmarks não correspondiam ao GPT-4.5, Gemini 2, DeepSeek-R1
- Relatórios de pressão interna para acelerar
A liderança da Meta concluiu que precisava reestruturar os esforços de IA.

Verão de 2025: Meta lança recrutamento agressivo de talentos
- CEO Mark Zuckerberg se reúne pessoalmente com pesquisadores em residências em Palo Alto e Lake Tahoe
- Bônus de assinatura reportados de até $200M (Ruoming Pang da Apple)
- Recrutado da OpenAI, DeepMind, Apple, Anthropic
- Mudança de foco: De pesquisa de longo prazo para uma implantação comercial mais rápida

Junho de 2025: A Mudança de Alexandr Wang
A Meta investe US$ 14,3 bilhões em 49% da Scale AI, uma empresa de infraestrutura de dados.
Traz o fundador Alexandr Wang (28) para o cargo de Diretor de IA, liderando os novos "Meta Superintelligence Labs".
Contexto chave:
- Wang construiu a Scale AI desde o início de anotação de dados até uma avaliação de US$ 29 Bilhões
- Relacionamentos extensos com grandes laboratórios de IA (OpenAI, Google, DoD)
- Conhecido pela execução operacional, não por pesquisa acadêmica
Isso mudou as estruturas de reporte em toda a organização de IA da Meta.

Reestruturação organizacional (junho-agosto de 2025)
Meta cria os "Meta Superintelligence Labs" (MSL) com quatro divisões:
1. Modelos de próxima geração (TBD Lab)
2. FAIR (pesquisa fundamental)
3. Produtos e Pesquisa Aplicada
4. Infraestrutura
O FAIR integrou-se a uma estrutura mais ampla, perdendo parte da autonomia anterior.
Alguns pesquisadores que valorizavam a cultura acadêmica da FAIR saíram:
- Joelle Pineau → Cohere
- ~600 posições eliminadas em outubro de 2025

Investimento em infraestrutura em escala sem precedentes
Despesas de capital de 2025: US$ 66–72 bilhões
Projetos principais:
- Prometheus (Ohio): cluster de 1 gigawatt, 2026
- Hyperion (Louisiana): Instalação multi-gigawatt
Longo prazo: Meta projeta US$ 600 bilhões em infraestrutura de IA até 2028.
Isso representa a maior aposta do setor em escalar arquiteturas atuais — a abordagem que LeCun questionou publicamente.


Novembro de 2025: Saída planejada de LeCun
Segundo fontes:
- Planos de sair nos próximos meses
- Primeiras discussões de arrecadação de recursos para startup de modelos mundiais
- Cronograma de pesquisa prevista para 10-20 anos
- Foco em arquiteturas alternativas em vez de escalar as existentes
Isso significaria abrir mão do acesso a:
- US$ 600 bilhões em infraestrutura planejada
- Implantação de GPU 1,3M
- Um dos maiores recursos de computação de IA do mundo

O que acontece a seguir
Nas décadas de 1980 e 1990, o LeCun persistiu com redes neurais quando o campo as abandonou. Sua aposta contrária tornou-se a base da revolução da IA de hoje.
Agora ele está fazendo outra aposta contrária: que escalar atinge limites fundamentais, e a verdadeira inteligência exige entender o mundo físico, não apenas prever texto.
Meta, OpenAI e Google apostam $600 bilhões+ que ele está errado — que as arquiteturas atuais podem alcançar a AGI apenas pela escala.
O julgamento técnico de LeCun vai se mostrar premonitório novamente, ou os escaladores vão vencer?
A resposta definirá a próxima década da IA.

423,38K
Melhores
Classificação
Favoritos

