Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Nie osiągniemy AGI z LLM."
Yann LeCun mówi to od lat. Teraz odchodzi z Meta, aby to udowodnić.
LeCun wynalazł konwolucyjne sieci neuronowe—technologię stojącą za każdą kamerą w smartfonie i samochodem autonomicznym dzisiaj. W 2018 roku zdobył Nagrodę Turinga, odpowiednik Nagrody Nobla w dziedzinie AI.
W wieku 65 lat, lider laboratorium badawczego FAIR w Meta odchodzi od 600 miliardów dolarów w infrastrukturze AI, stawiając przeciwko całej branży: Meta, OpenAI, Anthropic, xAI, Google.
Kim jest @ylecun? Dlaczego odchodzi i dlaczego jego następny ruch ma znaczenie? Oto historia:
Kim jest Yann LeCun?
- Stworzył konwolucyjne sieci neuronowe (CNN) w latach 80. — teraz podstawowe dla wizji komputerowej
- Zbudował LeNet w Bell Labs → pierwsza duża aplikacja głębokiego uczenia (odczyt czeków bankowych)
- Zdobył Nagrodę Turinga (2018) z Hintonem i Bengio
- Dołączył do Meta w 2013 roku, założył FAIR (Fundamental AI Research)
- Zbudował kulturę otwartych badań: publikowanie za darmo, udostępnianie otwartych modeli
Jest jednym z "ojców chrzestnych głębokiego uczenia."

Podstawowa pozycja techniczna LeCuna
LeCun jest konsekwentny od 2022 roku: Duże modele językowe mają fundamentalne ograniczenia. Przewidują wzorce tekstowe, ale brakuje im:
- Zrozumienia dynamiki świata fizycznego
- Trwałej pamięci
- Rozumowania przyczynowego
- Planowania ukierunkowanego na cel
Jego słynna analogia: "Nie możemy nawet odtworzyć inteligencji kota czy szczura, nie mówiąc już o inteligencji psa."
Opowiada się za "modelami świata" — systemami AI, które uczą się poprzez obserwację świata fizycznego, a nie tylko czytanie tekstu. To nie jest odrzucenie LLM jako bezużytecznych, ale przekonanie, że są niewystarczające jako droga do ogólnej inteligencji.

Teza skalowania: dlaczego Meta się nie zgadza
Ogromne inwestycje w obliczenia w branży opierają się na jednej obserwacji: większe modele konsekwentnie osiągają lepsze wyniki. Przejście z GPT-3 do GPT-4 pokazało zdolności, które pojawiają się w skali, a których mniejsze modele całkowicie nie miały.
Zakład: jeśli samo skalowanie może osiągnąć AGI, to ten, kto zbuduje największą infrastrukturę, wygrywa.
Kontrargument LeCuna: skala poprawia przewidywanie tekstu, a nie prawdziwe rozumowanie czy zrozumienie świata fizycznego.
Przemiany organizacyjne w Meta
2013–2024: FAIR działał z dużą autonomią
- Publikowano otwarcie, otrzymano znaczne zasoby obliczeniowe, utrzymano kulturę akademicką
Kwiecień 2025: Llama 4 zadebiutowała z mieszanymi recenzjami
- Wyniki testów nie dorównywały GPT-4.5, Gemini 2, DeepSeek-R1
- Doniesienia o wewnętrznej presji na przyspieszenie
Kierownictwo Meta doszło do wniosku, że muszą zrestrukturyzować wysiłki w zakresie AI.

Lato 2025: Meta rozpoczyna agresywną rekrutację talentów
- CEO Mark Zuckerberg osobiście spotyka się z badaczami w domach w Palo Alto i Lake Tahoe
- Donoszono o premiach podpisowych sięgających 200 mln USD (Ruoming Pang z Apple)
- Rekrutowani z OpenAI, DeepMind, Apple, Anthropic
- Zmiana fokus: Z długoterminowych badań w kierunku szybszego wdrażania komercyjnego

Czerwiec 2025: Ruch Alexandra Wanga
Meta inwestuje 14,3 miliarda dolarów za 49% Scale AI, firmy zajmującej się infrastrukturą danych.
Zatrudnia założyciela Alexandra Wanga (28) na stanowisku Chief AI Officer, prowadząc nowe "Meta Superintelligence Labs."
Kluczowy kontekst:
- Wang zbudował Scale AI od startupu zajmującego się adnotacją danych do wyceny 29 miliardów dolarów
- Rozległe relacje z głównymi laboratoriami AI (OpenAI, Google, DoD)
- Znany z realizacji operacyjnej, a nie badań akademickich
To zmieniło struktury raportowania w organizacji AI Meta.

Restrukturyzacja organizacyjna (czerwiec-sierpień 2025)
Meta tworzy "Meta Superintelligence Labs" (MSL) z czterema działami:
1. Modele nowej generacji (TBD Lab)
2. FAIR (badania podstawowe)
3. Produkty i badania stosowane
4. Infrastruktura
FAIR zintegrowane w szerszą strukturę, tracąc część wcześniejszej autonomii.
Niektórzy badacze, którzy cenili akademicką kulturę FAIR, odeszli:
- Joelle Pineau → Cohere
- ~600 stanowisk zlikwidowanych w październiku 2025

Inwestycje w infrastrukturę na niespotykaną dotąd skalę
Wydatki kapitałowe w 2025 roku: 66–72 miliardów dolarów
Główne projekty:
- Prometheus (Ohio): klaster 1 gigawata, 2026
- Hyperion (Luizjana): obiekt wielogigawatowy
Długoterminowo: projekty Meta na 600 miliardów dolarów w infrastrukturę AI do 2028 roku.
To stanowi największe zakłady w branży na skalowanie obecnych architektur — podejście, które LeCun publicznie zakwestionował.


Listopad 2025: Planowane odejście LeCuna
Według źródeł:
- Plany odejścia w nadchodzących miesiącach
- Wstępne rozmowy o pozyskiwaniu funduszy na startup zajmujący się modelami świata
- Oczekiwany czas badań wynoszący 10-20 lat
- Skupienie się na alternatywnych architekturach w porównaniu do skalowania istniejących
Oznaczałoby to rezygnację z dostępu do:
- 600 miliardów dolarów zaplanowanej infrastruktury
- 1,3 miliona wdrożeń GPU
- Jednego z największych zasobów obliczeniowych AI na świecie

Co się wydarzy dalej
W latach 80-90 LeCun wytrwale pracował nad sieciami neuronowymi, gdy dziedzina je porzuciła. Jego kontrowersyjna decyzja stała się fundamentem dzisiejszej rewolucji AI.
Teraz stawia kolejną kontrowersyjną tezę: że skalowanie napotyka fundamentalne ograniczenia, a prawdziwa inteligencja wymaga zrozumienia świata fizycznego, a nie tylko przewidywania tekstu.
Meta, OpenAI i Google stawiają 600 miliardów dolarów, że się myli – że obecne architektury mogą osiągnąć AGI tylko dzięki skali.
Czy techniczna ocena LeCuna okaże się znów trafna, czy może wygrają ci, którzy stawiają na skalowanie?
Odpowiedź zdefiniuje następne dziesięciolecie AI.

421,64K
Najlepsze
Ranking
Ulubione

