Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Ми не досягнемо AGI з LLM."
Ян Лекун говорить це вже багато років. Тепер він залишає Мету, щоб це довести.
Лекун винайшов згорткові нейронні мережі — технологію, що лежить в основі кожної камери смартфонів і автопілотів сьогодні. У 2018 році він отримав премію Тюрінга, а також Нобелівську премію AI.
У 65 років керівник дослідницької лабораторії FAIR від Meta відходить від 600 мільярдів доларів у сфері AI-інфраструктури, ставлячи проти всієї індустрії: Meta, OpenAI, Anthropic, xAI, Google.
Хто @ylecun? Чому він йде і чому його наступний крок має значення? Ось історія:
Хто такий Ян Лекун?
- Створили згорткові нейронні мережі (CNN) у 1980-х роках — нині є основою комп'ютерного зору
- Створено LeNet у Bell Labs → перше масштабне застосування глибокого навчання (читання банківських чеків)
- Отримав премію Тюрінга (2018) з фільмом Hinton & Bengio
- Приєднався до Meta 2013, заснував FAIR (Fundamental AI Research)
- Побудували культуру відкритих досліджень: вільне публікування, випуск відкритих моделей
Він один із «хрещених батьків глибокого навчання».

Основна технічна позиція Лекуна
LeCun є послідовним з 2022 року: великі мовні моделі мають фундаментальні обмеження. Вони передбачають текстові шаблони, але не мають:
- Розуміння динаміки фізичного світу
- Постійна пам'ять
- Причинне мислення
- Цілеспрямоване планування
Його відома аналогія: «Ми навіть не можемо відтворити інтелект котів чи щурів, не кажучи вже про інтелект собак.»
Він виступає за «світові моделі» — системи штучного інтелекту, які навчаються, спостерігаючи за фізичним світом, а не лише читаючи текст. Це не означає відкидання LLM як марних, а переконання, що вони недостатні як шлях до загального інтелекту.

Теза про масштабування: чому Meta не погоджується
Величезні інвестиції галузі в обчислювальні технології базуються на одному спостереженні: більші моделі стабільно працюють краще. GPT-3 до GPT-4 демонстрували можливості, які розвивалися у масштабах, яких менші моделі повністю не мали.
Ставка: якщо лише масштабування може досягти AGI, той, хто побудує найбільшу інфраструктуру, виграє.
Контраргумент Лекуна: масштаб покращує прогнозування тексту, а не справжнє мислення чи розуміння фізичного світу.
Організаційна зміна в Meta
2013–2024: FAIR працювала з значною автономією
- Публікувався відкрито, отримав значну обчислювальну підтримку, підтримував академічну культуру
Квітень 2025: Запуск Llama 4 отримав змішані відгуки
- Бенчмарки не відповідали GPT-4.5, Gemini 2, DeepSeek-R1
- Звіти про внутрішній тиск для прискорення
Керівництво Meta дійшло висновку, що їм потрібно реструктуризувати зусилля з ШІ.

Літо 2025: Meta запускає агресивний набір талантів
- Генеральний директор Марк Цукерберг особисто зустрічається з дослідниками в будинках у Пало-Альто та Лейк-Тахо
- Підписні бонуси до $200 млн (Руомін Пан з Apple)
- Рекрутований з OpenAI, DeepMind, Apple, Anthropic
- Зміна фокусу: від довгострокових досліджень до швидшого комерційного впровадження

Червень 2025: Переїзд Александра Ванга
Meta інвестує $14,3 млрд у 49% компанії Scale AI, що займається інфраструктурою даних.
Залучає засновника Александра Ванга (28 років) на посаду головного AI-директора, очолюючи нові «Meta Superintelligence Labs».
Ключовий контекст:
- Ван створив Scale AI від стартапу анотації даних до оцінки $29 млрд
- Широкі зв'язки з провідними лабораторіями ШІ (OpenAI, Google, DoD)
- Відомий оперативним виконанням, а не академічними дослідженнями
Це змінило структури звітності по всій AI організації Meta.

Організаційна реорганізація (червень-серпень 2025)
Meta створює «Meta Superintelligence Labs» (MSL) з чотирма підрозділами:
1. Моделі наступного покоління (TBD Lab)
2. FAIR (фундаментальні дослідження)
3. Продукти та прикладні дослідження
4. Інфраструктура
FAIR інтегрувалася у ширшу структуру, втративши частину колишньої автономії.
Деякі дослідники, які цінували академічну культуру FAIR, залишили це:
- Жоель Піно → Коер
- ~600 позицій вилучено у жовтні 2025 року

Інвестиції в інфраструктуру у безпрецедентних масштабах
Капітальні витрати 2025 року: $66–72B
Основні проєкти:
- Prometheus (Огайо): кластер потужністю 1 гігават, 2026
- Hyperion (Луїзіана): багатогігаватний об'єкт
Довгостроково: Meta прогнозує $600 млрд на AI-інфраструктуру до 2028 року.
Це є найбільшою ставкою в галузі на масштабування існуючих архітектур — підхід, який LeCun публічно поставив під сумнів.


Листопад 2025: Запланований відхід Лекуна
За даними джерел:
- Плани залишити їх у найближчі місяці
- Ранні обговорення збору коштів для світового модельного стартапу
- Очікувана хронологія досліджень на 10-20 років
- Фокус на альтернативних архітектурах проти масштабування існуючих
Це означало б відмовитися від доступу до:
- 600 млрд доларів запланованої інфраструктури
- 1.3M розгортання GPU
- Один із найбільших у світі ресурсів для обчислення ШІ

Що буде далі
У 1980-90-х роках LeCun продовжував використовувати нейронні мережі, коли галузь їх покинула. Його контраргумент став основою сучасної революції в ШІ.
Тепер він робить ще одну суперечливу ставку: масштабування досягає фундаментальних меж, а справжній інтелект вимагає розуміння фізичного світу, а не лише передбачення тексту.
Meta, OpenAI та Google ставлять $600B+ на те, що він помиляється — що сучасні архітектури можуть досягати AGI лише завдяки масштабу.
Чи виявиться технічне судження Лекуна знову пророчим, чи переможуть скейлери?
Відповідь визначить наступне десятиліття ШІ.

421,63K
Найкращі
Рейтинг
Вибране

