"Мы не достигнем AGI с помощью LLM." Янн ЛеКун говорит об этом уже много лет. Теперь он покидает Meta, чтобы это доказать. ЛеКун изобрел сверточные нейронные сети — технологию, стоящую за каждой камерой смартфона и автомобилем с автопилотом сегодня. Он получил премию Тьюринга в 2018 году, Нобелевскую премию в области ИИ. В 65 лет лидер исследовательской лаборатории FAIR в Meta уходит от $600 миллиардов в инфраструктуре ИИ, ставя на кон всю индустрию: Meta, OpenAI, Anthropic, xAI, Google. Кто такой @ylecun? Почему он уходит и почему его следующий шаг важен? Вот история:
Кто такой Ян Лекун? - Создал сверточные нейронные сети (CNN) в 1980-х — теперь основа компьютерного зрения - Построил LeNet в Bell Labs → первое крупномасштабное применение глубокого обучения (чтение банковских чеков) - Лауреат премии Тьюринга (2018) вместе с Хинтоном и Бенгио - Присоединился к Meta в 2013 году, основал FAIR (Фундаментальные исследования ИИ) - Создал культуру открытых исследований: свободная публикация, выпуск открытых моделей Он один из "крестных отцов глубокого обучения."
Основная техническая позиция ЛеКуна ЛеКун последователен с 2022 года: большие языковые модели имеют фундаментальные ограничения. Они предсказывают текстовые паттерны, но не обладают: - Пониманием динамики физического мира - Постоянной памятью - Причинным мышлением - Целенаправленным планированием Его знаменитая аналогия: "Мы даже не можем воспроизвести интеллект кошки или крысы, не говоря уже об интеллекте собаки." Он выступает за "модели мира" — ИИ-системы, которые учатся, наблюдая за физическим миром, а не просто читая текст. Это не отказ от больших языковых моделей как бесполезных, а убеждение в том, что они недостаточны как путь к общему интеллекту.
Тезис о масштабировании: почему Meta не согласна Массированные инвестиции в вычисления в отрасли основаны на одном наблюдении: более крупные модели последовательно показывают лучшие результаты. Переход от GPT-3 к GPT-4 продемонстрировал возможности, возникающие в масштабе, которые отсутствовали у меньших моделей. Ставка: если масштабирование само по себе может привести к AGI, тот, кто построит крупнейшую инфраструктуру, выиграет. Контраргумент ЛеКуна: масштаб улучшает предсказание текста, а не истинное рассуждение или понимание физического мира.
Организационные изменения в Meta 2013–2024: FAIR работал с значительной автономией - Публиковал открыто, получал значительные вычислительные ресурсы, поддерживал академическую культуру Апрель 2025: запуск Llama 4 с смешанными отзывами - Бенчмарки не соответствовали GPT-4.5, Gemini 2, DeepSeek-R1 - Сообщения о внутреннем давлении для ускорения Руководство Meta пришло к выводу, что им необходимо реорганизовать усилия в области ИИ.
Лето 2025 года: Meta запускает агрессивный набор талантов - Генеральный директор Марк Цукерберг лично встречается с исследователями в их домах в Пало-Альто и Лейк-Тахо - Сообщается о подписных бонусах до 200 миллионов долларов (Руомин Панг из Apple) - Набор из OpenAI, DeepMind, Apple, Anthropic - Сдвиг фокуса: от долгосрочных исследований к более быстрой коммерческой реализации
Июнь 2025: Переход Александра Ванга Meta инвестирует 14,3 миллиарда долларов за 49% Scale AI, компании по созданию инфраструктуры данных. Привлекает основателя Александра Ванга (28 лет) на должность главного директора по ИИ, возглавляющего новые "Лаборатории суперинтеллекта Meta." Ключевой контекст: - Ванг превратил Scale AI из стартапа по аннотированию данных в компанию с оценкой 29 миллиардов долларов - Обширные связи с крупными лабораториями ИИ (OpenAI, Google, Министерство обороны) - Известен своей операционной эффективностью, а не академическими исследованиями Это изменило структуры отчетности в AI-организации Meta.
Организационная реорганизация (июнь-август 2025) Meta создает "Лаборатории суперразумного интеллекта Meta" (MSL) с четырьмя подразделениями: 1. Модели следующего поколения (TBD Lab) 2. FAIR (фундаментальные исследования) 3. Продукты и прикладные исследования 4. Инфраструктура FAIR интегрирована в более широкую структуру, потеряв часть предыдущей автономии. Некоторые исследователи, ценившие академическую культуру FAIR, ушли: - Жоэль Пино → Cohere - ~600 позиций сокращено в октябре 2025
Инвестиции в инфраструктуру на беспрецедентном уровне Капитальные расходы 2025 года: 66–72 миллиарда долларов Основные проекты: - Прометей (Огайо): кластер мощностью 1 гигаватт, 2026 год - Гиперион (Луизиана): многогигаваттное предприятие В долгосрочной перспективе: Meta планирует 600 миллиардов долларов на инфраструктуру ИИ до 2028 года. Это представляет собой крупнейшую ставку в отрасли на масштабирование текущих архитектур — подход, который Лекун публично ставил под сомнение.
Ноябрь 2025: Запланированный уход ЛеКуна Согласно источникам: - Планы покинуть в ближайшие месяцы - Первые обсуждения по сбору средств для стартапа в области мировых моделей - Ожидаемый срок исследований 10-20 лет - Фокус на альтернативных архитектурах против масштабирования существующих Это означало бы отказ от доступа к: - $600 млрд в запланированной инфраструктуре - 1,3 млн развертыванию GPU - Одним из крупнейших в мире ресурсов вычислений AI
Что будет дальше В 1980-х и 90-х годах Лекун продолжал работать с нейронными сетями, когда эта область их оставила. Его контрарный выбор стал основой сегодняшней революции в области ИИ. Теперь он делает еще одну контрарную ставку: что масштабирование достигает фундаментальных пределов, и истинный интеллект требует понимания физического мира, а не просто предсказания текста. Meta, OpenAI и Google ставят более 600 миллиардов долларов на то, что он не прав — что текущие архитектуры могут достичь AGI только за счет масштаба. Докажет ли техническое суждение Лекуна свою проницательность снова, или победят масштабировщики? Ответ определит следующее десятилетие ИИ.
421,63K