"Ми не досягнемо AGI з LLM." Ян Лекун говорить це вже багато років. Тепер він залишає Мету, щоб це довести. Лекун винайшов згорткові нейронні мережі — технологію, що лежить в основі кожної камери смартфонів і автопілотів сьогодні. У 2018 році він отримав премію Тюрінга, а також Нобелівську премію AI. У 65 років керівник дослідницької лабораторії FAIR від Meta відходить від 600 мільярдів доларів у сфері AI-інфраструктури, ставлячи проти всієї індустрії: Meta, OpenAI, Anthropic, xAI, Google. Хто @ylecun? Чому він йде і чому його наступний крок має значення? Ось історія:
Хто такий Ян Лекун? - Створили згорткові нейронні мережі (CNN) у 1980-х роках — нині є основою комп'ютерного зору - Створено LeNet у Bell Labs → перше масштабне застосування глибокого навчання (читання банківських чеків) - Отримав премію Тюрінга (2018) з фільмом Hinton & Bengio - Приєднався до Meta 2013, заснував FAIR (Fundamental AI Research) - Побудували культуру відкритих досліджень: вільне публікування, випуск відкритих моделей Він один із «хрещених батьків глибокого навчання».
Основна технічна позиція Лекуна LeCun є послідовним з 2022 року: великі мовні моделі мають фундаментальні обмеження. Вони передбачають текстові шаблони, але не мають: - Розуміння динаміки фізичного світу - Постійна пам'ять - Причинне мислення - Цілеспрямоване планування Його відома аналогія: «Ми навіть не можемо відтворити інтелект котів чи щурів, не кажучи вже про інтелект собак.» Він виступає за «світові моделі» — системи штучного інтелекту, які навчаються, спостерігаючи за фізичним світом, а не лише читаючи текст. Це не означає відкидання LLM як марних, а переконання, що вони недостатні як шлях до загального інтелекту.
Теза про масштабування: чому Meta не погоджується Величезні інвестиції галузі в обчислювальні технології базуються на одному спостереженні: більші моделі стабільно працюють краще. GPT-3 до GPT-4 демонстрували можливості, які розвивалися у масштабах, яких менші моделі повністю не мали. Ставка: якщо лише масштабування може досягти AGI, той, хто побудує найбільшу інфраструктуру, виграє. Контраргумент Лекуна: масштаб покращує прогнозування тексту, а не справжнє мислення чи розуміння фізичного світу.
Організаційна зміна в Meta 2013–2024: FAIR працювала з значною автономією - Публікувався відкрито, отримав значну обчислювальну підтримку, підтримував академічну культуру Квітень 2025: Запуск Llama 4 отримав змішані відгуки - Бенчмарки не відповідали GPT-4.5, Gemini 2, DeepSeek-R1 - Звіти про внутрішній тиск для прискорення Керівництво Meta дійшло висновку, що їм потрібно реструктуризувати зусилля з ШІ.
Літо 2025: Meta запускає агресивний набір талантів - Генеральний директор Марк Цукерберг особисто зустрічається з дослідниками в будинках у Пало-Альто та Лейк-Тахо - Підписні бонуси до $200 млн (Руомін Пан з Apple) - Рекрутований з OpenAI, DeepMind, Apple, Anthropic - Зміна фокусу: від довгострокових досліджень до швидшого комерційного впровадження
Червень 2025: Переїзд Александра Ванга Meta інвестує $14,3 млрд у 49% компанії Scale AI, що займається інфраструктурою даних. Залучає засновника Александра Ванга (28 років) на посаду головного AI-директора, очолюючи нові «Meta Superintelligence Labs». Ключовий контекст: - Ван створив Scale AI від стартапу анотації даних до оцінки $29 млрд - Широкі зв'язки з провідними лабораторіями ШІ (OpenAI, Google, DoD) - Відомий оперативним виконанням, а не академічними дослідженнями Це змінило структури звітності по всій AI організації Meta.
Організаційна реорганізація (червень-серпень 2025) Meta створює «Meta Superintelligence Labs» (MSL) з чотирма підрозділами: 1. Моделі наступного покоління (TBD Lab) 2. FAIR (фундаментальні дослідження) 3. Продукти та прикладні дослідження 4. Інфраструктура FAIR інтегрувалася у ширшу структуру, втративши частину колишньої автономії. Деякі дослідники, які цінували академічну культуру FAIR, залишили це: - Жоель Піно → Коер - ~600 позицій вилучено у жовтні 2025 року
Інвестиції в інфраструктуру у безпрецедентних масштабах Капітальні витрати 2025 року: $66–72B Основні проєкти: - Prometheus (Огайо): кластер потужністю 1 гігават, 2026 - Hyperion (Луїзіана): багатогігаватний об'єкт Довгостроково: Meta прогнозує $600 млрд на AI-інфраструктуру до 2028 року. Це є найбільшою ставкою в галузі на масштабування існуючих архітектур — підхід, який LeCun публічно поставив під сумнів.
Листопад 2025: Запланований відхід Лекуна За даними джерел: - Плани залишити їх у найближчі місяці - Ранні обговорення збору коштів для світового модельного стартапу - Очікувана хронологія досліджень на 10-20 років - Фокус на альтернативних архітектурах проти масштабування існуючих Це означало б відмовитися від доступу до: - 600 млрд доларів запланованої інфраструктури - 1.3M розгортання GPU - Один із найбільших у світі ресурсів для обчислення ШІ
Що буде далі У 1980-90-х роках LeCun продовжував використовувати нейронні мережі, коли галузь їх покинула. Його контраргумент став основою сучасної революції в ШІ. Тепер він робить ще одну суперечливу ставку: масштабування досягає фундаментальних меж, а справжній інтелект вимагає розуміння фізичного світу, а не лише передбачення тексту. Meta, OpenAI та Google ставлять $600B+ на те, що він помиляється — що сучасні архітектури можуть досягати AGI лише завдяки масштабу. Чи виявиться технічне судження Лекуна знову пророчим, чи переможуть скейлери? Відповідь визначить наступне десятиліття ШІ.
421,63K