Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Мы не достигнем AGI с помощью LLM."
Янн ЛеКун говорит об этом уже много лет. Теперь он покидает Meta, чтобы это доказать.
ЛеКун изобрел сверточные нейронные сети — технологию, стоящую за каждой камерой смартфона и автомобилем с автопилотом сегодня. Он получил премию Тьюринга в 2018 году, Нобелевскую премию в области ИИ.
В 65 лет лидер исследовательской лаборатории FAIR в Meta уходит от $600 миллиардов в инфраструктуре ИИ, ставя на кон всю индустрию: Meta, OpenAI, Anthropic, xAI, Google.
Кто такой @ylecun? Почему он уходит и почему его следующий шаг важен? Вот история:
Кто такой Ян Лекун?
- Создал сверточные нейронные сети (CNN) в 1980-х — теперь основа компьютерного зрения
- Построил LeNet в Bell Labs → первое крупномасштабное применение глубокого обучения (чтение банковских чеков)
- Лауреат премии Тьюринга (2018) вместе с Хинтоном и Бенгио
- Присоединился к Meta в 2013 году, основал FAIR (Фундаментальные исследования ИИ)
- Создал культуру открытых исследований: свободная публикация, выпуск открытых моделей
Он один из "крестных отцов глубокого обучения."

Основная техническая позиция ЛеКуна
ЛеКун последователен с 2022 года: большие языковые модели имеют фундаментальные ограничения. Они предсказывают текстовые паттерны, но не обладают:
- Пониманием динамики физического мира
- Постоянной памятью
- Причинным мышлением
- Целенаправленным планированием
Его знаменитая аналогия: "Мы даже не можем воспроизвести интеллект кошки или крысы, не говоря уже об интеллекте собаки."
Он выступает за "модели мира" — ИИ-системы, которые учатся, наблюдая за физическим миром, а не просто читая текст. Это не отказ от больших языковых моделей как бесполезных, а убеждение в том, что они недостаточны как путь к общему интеллекту.

Тезис о масштабировании: почему Meta не согласна
Массированные инвестиции в вычисления в отрасли основаны на одном наблюдении: более крупные модели последовательно показывают лучшие результаты. Переход от GPT-3 к GPT-4 продемонстрировал возможности, возникающие в масштабе, которые отсутствовали у меньших моделей.
Ставка: если масштабирование само по себе может привести к AGI, тот, кто построит крупнейшую инфраструктуру, выиграет.
Контраргумент ЛеКуна: масштаб улучшает предсказание текста, а не истинное рассуждение или понимание физического мира.
Организационные изменения в Meta
2013–2024: FAIR работал с значительной автономией
- Публиковал открыто, получал значительные вычислительные ресурсы, поддерживал академическую культуру
Апрель 2025: запуск Llama 4 с смешанными отзывами
- Бенчмарки не соответствовали GPT-4.5, Gemini 2, DeepSeek-R1
- Сообщения о внутреннем давлении для ускорения
Руководство Meta пришло к выводу, что им необходимо реорганизовать усилия в области ИИ.

Лето 2025 года: Meta запускает агрессивный набор талантов
- Генеральный директор Марк Цукерберг лично встречается с исследователями в их домах в Пало-Альто и Лейк-Тахо
- Сообщается о подписных бонусах до 200 миллионов долларов (Руомин Панг из Apple)
- Набор из OpenAI, DeepMind, Apple, Anthropic
- Сдвиг фокуса: от долгосрочных исследований к более быстрой коммерческой реализации

Июнь 2025: Переход Александра Ванга
Meta инвестирует 14,3 миллиарда долларов за 49% Scale AI, компании по созданию инфраструктуры данных.
Привлекает основателя Александра Ванга (28 лет) на должность главного директора по ИИ, возглавляющего новые "Лаборатории суперинтеллекта Meta."
Ключевой контекст:
- Ванг превратил Scale AI из стартапа по аннотированию данных в компанию с оценкой 29 миллиардов долларов
- Обширные связи с крупными лабораториями ИИ (OpenAI, Google, Министерство обороны)
- Известен своей операционной эффективностью, а не академическими исследованиями
Это изменило структуры отчетности в AI-организации Meta.

Организационная реорганизация (июнь-август 2025)
Meta создает "Лаборатории суперразумного интеллекта Meta" (MSL) с четырьмя подразделениями:
1. Модели следующего поколения (TBD Lab)
2. FAIR (фундаментальные исследования)
3. Продукты и прикладные исследования
4. Инфраструктура
FAIR интегрирована в более широкую структуру, потеряв часть предыдущей автономии.
Некоторые исследователи, ценившие академическую культуру FAIR, ушли:
- Жоэль Пино → Cohere
- ~600 позиций сокращено в октябре 2025

Инвестиции в инфраструктуру на беспрецедентном уровне
Капитальные расходы 2025 года: 66–72 миллиарда долларов
Основные проекты:
- Прометей (Огайо): кластер мощностью 1 гигаватт, 2026 год
- Гиперион (Луизиана): многогигаваттное предприятие
В долгосрочной перспективе: Meta планирует 600 миллиардов долларов на инфраструктуру ИИ до 2028 года.
Это представляет собой крупнейшую ставку в отрасли на масштабирование текущих архитектур — подход, который Лекун публично ставил под сомнение.


Ноябрь 2025: Запланированный уход ЛеКуна
Согласно источникам:
- Планы покинуть в ближайшие месяцы
- Первые обсуждения по сбору средств для стартапа в области мировых моделей
- Ожидаемый срок исследований 10-20 лет
- Фокус на альтернативных архитектурах против масштабирования существующих
Это означало бы отказ от доступа к:
- $600 млрд в запланированной инфраструктуре
- 1,3 млн развертыванию GPU
- Одним из крупнейших в мире ресурсов вычислений AI

Что будет дальше
В 1980-х и 90-х годах Лекун продолжал работать с нейронными сетями, когда эта область их оставила. Его контрарный выбор стал основой сегодняшней революции в области ИИ.
Теперь он делает еще одну контрарную ставку: что масштабирование достигает фундаментальных пределов, и истинный интеллект требует понимания физического мира, а не просто предсказания текста.
Meta, OpenAI и Google ставят более 600 миллиардов долларов на то, что он не прав — что текущие архитектуры могут достичь AGI только за счет масштаба.
Докажет ли техническое суждение Лекуна свою проницательность снова, или победят масштабировщики?
Ответ определит следующее десятилетие ИИ.

421,63K
Топ
Рейтинг
Избранное

