Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"No llegaremos a AGI con los LLMs."
Yann LeCun lleva años diciendo esto. Ahora deja a Meta para demostrarlo.
LeCun inventó las redes neuronales convolucionales, la tecnología que hoy en día hay detrás de todas las cámaras de smartphones y coches autónomos. Ganó el Premio Turing en 2018, el Premio Nobel de la IA.
Con 65 años, el líder del laboratorio de investigación FAIR de Meta se marcha de 600.000 millones de dólares en infraestructura de IA, apostando en contra de toda la industria: Meta, OpenAI, Anthropic, xAI, Google.
¿Quién es @ylecun? ¿Por qué se va y por qué importa su próximo movimiento? Esta es la historia:
¿Quién es Yann LeCun?
- Creó redes neuronales convolucionales (CNN) en los años 80 — ahora fundamentales para la visión por ordenador
- Construyó LeNet en Bell Labs → primera aplicación a gran escala de deep learning (lectura de cheques bancarios)
- Ganador del Premio Turing (2018) con Hinton & Bengio
- Se unió a Meta en 2013, fundó FAIR (Investigación Fundamental en IA)
- Construir una cultura de investigación abierta: publicar libremente, publicar modelos abiertos
Es uno de los "padrinos del aprendizaje profundo".

Posición Técnica Principal de LeCun
LeCun ha sido constante desde 2022: los grandes modelos de lenguaje tienen limitaciones fundamentales. Predicen patrones de texto pero carecen de:
- Comprensión de la dinámica del mundo físico
- Memoria persistente
- Razonamiento causal
- Planificación dirigida a objetivos
Su famosa analogía: "Ni siquiera podemos reproducir la inteligencia de los gatos o de las ratas, y mucho menos la de los perros."
Aboga por los "modelos del mundo" — sistemas de IA que aprenden observando el mundo físico, no solo leyendo texto. Esto no representa un rechazo de los LLMs como inútiles, sino una creencia de que son insuficientes como camino hacia la inteligencia general.

La tesis del escalado: Por qué Meta no está de acuerdo
Las enormes inversiones en computación de la industria se basan en una observación: los modelos más grandes rinden mejor de forma constante. De GPT-3 a GPT-4 mostraron capacidades emergentes a gran escala que los modelos más pequeños carecían por completo.
La apuesta: si solo escalando puede llegar a la AGI, quien construya la mayor infraestructura gana.
La contraargumentación de LeCun: la escala mejora la predicción del texto, no el razonamiento real ni la comprensión física del mundo.
El cambio organizativo en Meta
2013–2024: FAIR operó con una autonomía significativa
- Publicado abiertamente, recibió un cálculo sustancial y mantuvo la cultura académica
Abril de 2025: Llama 4 se lanza con críticas mixtas
- Los benchmarks no coincidían con GPT-4.5, Gemini 2, DeepSeek-R1
- Informes de presión interna para acelerar
La dirección de Meta concluyó que necesitaban reestructurar los esfuerzos de IA.

Verano 2025: Meta lanza un reclutamiento agresivo de talento
- El CEO Mark Zuckerberg se reúne personalmente con investigadores en hogares de Palo Alto y Lake Tahoe
- Bonos de firma reportados hasta 200 millones de dólares (Ruoming Pang de Apple)
- Reclutado de OpenAI, DeepMind, Apple, Anthropic
- Cambio de enfoque: De la investigación a largo plazo hacia un despliegue comercial más rápido

Junio de 2025: El traslado de Alexandr Wang
Meta invierte 14.300 millones de dólares por el 49% de Scale AI, una empresa de infraestructura de datos.
Incorpora al fundador Alexandr Wang (28) como Director de IA, liderando los nuevos "Meta Superintelligence Labs".
Contexto clave:
- Wang construyó Scale AI desde una anotación de datos hasta una valoración de 29.000 millones de dólares
- Relaciones extensas con los principales laboratorios de IA (OpenAI, Google, DoD)
- Conocido por su ejecución operativa, no por la investigación académica
Esto cambió las estructuras de informes en toda la organización de IA de Meta.

Reestructuración organizativa (junio-agosto 2025)
Meta crea "Meta Superintelligence Labs" (MSL) con cuatro divisiones:
1. Modelos de próxima generación (TBD Lab)
2. FAIR (investigación fundamental)
3. Productos e investigación aplicada
4. Infraestructura
FAIR se integró en una estructura más amplia, perdiendo parte de su autonomía previa.
Algunos investigadores que valoraban la cultura académica de FAIR se marcharon:
- Joelle Pineau → Cohere
- ~600 posiciones eliminadas en octubre de 2025

Inversión en infraestructuras a una escala sin precedentes
Gastos de capital 2025: 66–72.000 millones de dólares
Proyectos principales:
- Prometheus (Ohio): cúmulo de 1 gigavatios, 2026
- Hyperion (Luisiana): Instalación de varios gigavatios
A largo plazo: Meta proyecta 600.000 millones de dólares en infraestructura de IA hasta 2028.
Esto representa la mayor apuesta de la industria en escalar las arquitecturas actuales — el enfoque que LeCun ha cuestionado públicamente.


Noviembre de 2025: Salida planificada de LeCun
Según fuentes:
- Planes para marcharse en los próximos meses
- Primeras discusiones sobre recaudación de fondos para la puesta en marcha de modelos mundiales
- Calendario de investigación anticipado de 10-20 años
- Centrarse en arquitecturas alternativas frente a escalar las existentes
Esto significaría renunciar al acceso a:
- 600.000 millones de dólares en infraestructura planificada
- Despliegue de GPU 1,3M
- Uno de los mayores recursos de computación de IA del mundo

¿Qué pasa después
En las décadas de 1980 y 1990, LeCun persistió con redes neuronales cuando el campo las había abandonado. Su apuesta contraria se convirtió en la base de la revolución actual de la IA.
Ahora está haciendo otra apuesta contraria: que escalar alcanza límites fundamentales, y la verdadera inteligencia requiere entender el mundo físico, no solo predecir el texto.
Meta, OpenAI y Google apuestan 600.000 millones de dólares a que está equivocado, que las arquitecturas actuales pueden alcanzar la AGI solo con la escala.
¿Volverá a ser premonitorio el juicio técnico de LeCun o ganarán los escaladores?
La respuesta definirá la próxima década de la IA.

421.63K
Populares
Ranking
Favoritas

