"Nie osiągniemy AGI z LLM." Yann LeCun mówi to od lat. Teraz odchodzi z Meta, aby to udowodnić. LeCun wynalazł konwolucyjne sieci neuronowe—technologię stojącą za każdą kamerą w smartfonie i samochodem autonomicznym dzisiaj. W 2018 roku zdobył Nagrodę Turinga, odpowiednik Nagrody Nobla w dziedzinie AI. W wieku 65 lat, lider laboratorium badawczego FAIR w Meta odchodzi od 600 miliardów dolarów w infrastrukturze AI, stawiając przeciwko całej branży: Meta, OpenAI, Anthropic, xAI, Google. Kim jest @ylecun? Dlaczego odchodzi i dlaczego jego następny ruch ma znaczenie? Oto historia:
Kim jest Yann LeCun? - Stworzył konwolucyjne sieci neuronowe (CNN) w latach 80. — teraz podstawowe dla wizji komputerowej - Zbudował LeNet w Bell Labs → pierwsza duża aplikacja głębokiego uczenia (odczyt czeków bankowych) - Zdobył Nagrodę Turinga (2018) z Hintonem i Bengio - Dołączył do Meta w 2013 roku, założył FAIR (Fundamental AI Research) - Zbudował kulturę otwartych badań: publikowanie za darmo, udostępnianie otwartych modeli Jest jednym z "ojców chrzestnych głębokiego uczenia."
Podstawowa pozycja techniczna LeCuna LeCun jest konsekwentny od 2022 roku: Duże modele językowe mają fundamentalne ograniczenia. Przewidują wzorce tekstowe, ale brakuje im: - Zrozumienia dynamiki świata fizycznego - Trwałej pamięci - Rozumowania przyczynowego - Planowania ukierunkowanego na cel Jego słynna analogia: "Nie możemy nawet odtworzyć inteligencji kota czy szczura, nie mówiąc już o inteligencji psa." Opowiada się za "modelami świata" — systemami AI, które uczą się poprzez obserwację świata fizycznego, a nie tylko czytanie tekstu. To nie jest odrzucenie LLM jako bezużytecznych, ale przekonanie, że są niewystarczające jako droga do ogólnej inteligencji.
Teza skalowania: dlaczego Meta się nie zgadza Ogromne inwestycje w obliczenia w branży opierają się na jednej obserwacji: większe modele konsekwentnie osiągają lepsze wyniki. Przejście z GPT-3 do GPT-4 pokazało zdolności, które pojawiają się w skali, a których mniejsze modele całkowicie nie miały. Zakład: jeśli samo skalowanie może osiągnąć AGI, to ten, kto zbuduje największą infrastrukturę, wygrywa. Kontrargument LeCuna: skala poprawia przewidywanie tekstu, a nie prawdziwe rozumowanie czy zrozumienie świata fizycznego.
Przemiany organizacyjne w Meta 2013–2024: FAIR działał z dużą autonomią - Publikowano otwarcie, otrzymano znaczne zasoby obliczeniowe, utrzymano kulturę akademicką Kwiecień 2025: Llama 4 zadebiutowała z mieszanymi recenzjami - Wyniki testów nie dorównywały GPT-4.5, Gemini 2, DeepSeek-R1 - Doniesienia o wewnętrznej presji na przyspieszenie Kierownictwo Meta doszło do wniosku, że muszą zrestrukturyzować wysiłki w zakresie AI.
Lato 2025: Meta rozpoczyna agresywną rekrutację talentów - CEO Mark Zuckerberg osobiście spotyka się z badaczami w domach w Palo Alto i Lake Tahoe - Donoszono o premiach podpisowych sięgających 200 mln USD (Ruoming Pang z Apple) - Rekrutowani z OpenAI, DeepMind, Apple, Anthropic - Zmiana fokus: Z długoterminowych badań w kierunku szybszego wdrażania komercyjnego
Czerwiec 2025: Ruch Alexandra Wanga Meta inwestuje 14,3 miliarda dolarów za 49% Scale AI, firmy zajmującej się infrastrukturą danych. Zatrudnia założyciela Alexandra Wanga (28) na stanowisku Chief AI Officer, prowadząc nowe "Meta Superintelligence Labs." Kluczowy kontekst: - Wang zbudował Scale AI od startupu zajmującego się adnotacją danych do wyceny 29 miliardów dolarów - Rozległe relacje z głównymi laboratoriami AI (OpenAI, Google, DoD) - Znany z realizacji operacyjnej, a nie badań akademickich To zmieniło struktury raportowania w organizacji AI Meta.
Restrukturyzacja organizacyjna (czerwiec-sierpień 2025) Meta tworzy "Meta Superintelligence Labs" (MSL) z czterema działami: 1. Modele nowej generacji (TBD Lab) 2. FAIR (badania podstawowe) 3. Produkty i badania stosowane 4. Infrastruktura FAIR zintegrowane w szerszą strukturę, tracąc część wcześniejszej autonomii. Niektórzy badacze, którzy cenili akademicką kulturę FAIR, odeszli: - Joelle Pineau → Cohere - ~600 stanowisk zlikwidowanych w październiku 2025
Inwestycje w infrastrukturę na niespotykaną dotąd skalę Wydatki kapitałowe w 2025 roku: 66–72 miliardów dolarów Główne projekty: - Prometheus (Ohio): klaster 1 gigawata, 2026 - Hyperion (Luizjana): obiekt wielogigawatowy Długoterminowo: projekty Meta na 600 miliardów dolarów w infrastrukturę AI do 2028 roku. To stanowi największe zakłady w branży na skalowanie obecnych architektur — podejście, które LeCun publicznie zakwestionował.
Listopad 2025: Planowane odejście LeCuna Według źródeł: - Plany odejścia w nadchodzących miesiącach - Wstępne rozmowy o pozyskiwaniu funduszy na startup zajmujący się modelami świata - Oczekiwany czas badań wynoszący 10-20 lat - Skupienie się na alternatywnych architekturach w porównaniu do skalowania istniejących Oznaczałoby to rezygnację z dostępu do: - 600 miliardów dolarów zaplanowanej infrastruktury - 1,3 miliona wdrożeń GPU - Jednego z największych zasobów obliczeniowych AI na świecie
Co się wydarzy dalej W latach 80-90 LeCun wytrwale pracował nad sieciami neuronowymi, gdy dziedzina je porzuciła. Jego kontrowersyjna decyzja stała się fundamentem dzisiejszej rewolucji AI. Teraz stawia kolejną kontrowersyjną tezę: że skalowanie napotyka fundamentalne ograniczenia, a prawdziwa inteligencja wymaga zrozumienia świata fizycznego, a nie tylko przewidywania tekstu. Meta, OpenAI i Google stawiają 600 miliardów dolarów, że się myli – że obecne architektury mogą osiągnąć AGI tylko dzięki skali. Czy techniczna ocena LeCuna okaże się znów trafna, czy może wygrają ci, którzy stawiają na skalowanie? Odpowiedź zdefiniuje następne dziesięciolecie AI.
421,64K