Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Vi når inte AGI med LLM."
Yann LeCun har sagt detta i åratal. Nu lämnar han Meta att bevisa det.
LeCun uppfann konvolutionella neurala nätverk – teknologin bakom varje smartphonekamera och självkörande bil idag. Han vann Turingpriset 2018, AI:s Nobelpris.
Vid 65 års ålder lämnar ledaren för Metas FAIR-forskningslabb 600 miljarder dollar i AI-infrastruktur och satsar mot hela branschen: Meta, OpenAI, Anthropic, xAI, Google.
Vem är @ylecun? Varför lämnar han, och varför spelar hans nästa drag någon roll? Här är historien:
Vem är Yann LeCun?
- Skapade konvolutionella neurala nätverk (CNN) på 1980-talet — nu grundläggande för datorseende
- Byggde LeNet vid Bell Labs → första storskaliga tillämpningen av djupinlärning (bankcheckläsning)
- Vann Turing Award (2018) med Hinton & Bengio
- Gick med i Meta 2013, grundade FAIR (Fundamental AI Research)
- Byggde en kultur av öppen forskning: publicera fritt, släppa öppna modeller
Han är en av "djupinlärningens gudfäder."

LeCuns kärntekniska position
LeCun har varit konsekvent sedan 2022: Stora språkmodeller har grundläggande begränsningar. De förutspår textmönster men saknar:
- Förståelse av dynamik i den fysiska världen
- Persistent minne
- Kausal resonemang
- Målinriktad planering
Hans berömda analogi: "Vi kan inte ens reproducera kattintelligens eller råttintelligens, än mindre hundintelligens."
Han förespråkar "världsmodeller" — AI-system som lär sig genom att observera den fysiska världen, inte bara genom att läsa text. Detta innebär inte ett avvisande av LLM:er som värdelösa, utan en tro på att de är otillräckliga som väg till allmän intelligens.

Skalningstesen: Varför Meta inte håller med
Branschens enorma beräkningsinvesteringar vilar på en observation: större modeller presterar konsekvent bättre. GPT-3 till GPT-4 visade på kapaciteter som växte fram i stor skala som mindre modeller helt saknade.
Vadslagningen: om skalningen ensam kan nå AGI, vinner den som bygger den största infrastrukturen.
LeCuns mot: skalan förbättrar textprediktion, inte sann resonemang eller förståelse av den fysiska världen.
Den organisatoriska förändringen på Meta
2013–2024: FAIR verkade med betydande självständighet
- Publicerade öppet, fick betydande beräkningskraft, upprätthöll akademisk kultur
April 2025: Llama 4 lanseras med blandade recensioner
- Benchmarks matchade inte GPT-4.5, Gemini 2, DeepSeek-R1
- Rapporter om internt tryck för acceleration
Metas ledarskap drog slutsatsen att de behövde omstrukturera AI-insatserna.

Sommaren 2025: Meta lanserar aggressiv talangrekrytering
- VD Mark Zuckerberg träffar personligen forskare i hem i Palo Alto och Lake Tahoe
- Signeringsbonusar rapporteras upp till 200 miljoner dollar (Ruoming Pang från Apple)
- Rekryterad från OpenAI, DeepMind, Apple, Anthropic
- Fokusskifte: Från långsiktig forskning mot snabbare kommersiell implementering

Juni 2025: Alexandr Wang-flytten
Meta investerar 14,3 miljarder dollar för 49 % av Scale AI, ett datainfrastrukturföretag.
Tar in grundaren Alexandr Wang (28) som Chief AI Officer och leder nya "Meta Superintelligence Labs."
Viktig kontext:
- Wang byggde Scale AI från dataannoteringsstart till en värdering på 29 miljarder dollar
- Omfattande relationer med stora AI-laboratorier (OpenAI, Google, DoD)
- Känd för operativ utförande, inte akademisk forskning
Detta förändrade rapporteringsstrukturerna inom Metas AI-organisation.

Organisatorisk omstrukturering (juni–augusti 2025)
Meta skapar "Meta Superintelligence Labs" (MSL) med fyra divisioner:
1. Nästa generations modeller (TBD Lab)
2. FAIR (grundforskning)
3. Produkter och tillämpad forskning
4. Infrastruktur
FAIR integrerades i en bredare struktur och förlorade en del av den tidigare autonomin.
Några forskare som värderade FAIR:s akademiska kultur lämnade:
- Joelle Pineau → Cohere
- ~600 positioner eliminerade i oktober 2025

Infrastrukturinvesteringar i en aldrig tidigare skådad skala
Kapitalutgifter 2025: 66–72 miljarder dollar
Stora projekt:
- Prometheus (Ohio): 1 gigawattkluster, 2026
- Hyperion (Louisiana): Multi-gigawatt-anläggning
Långsiktigt: Meta projicerar 600 miljarder dollar i AI-infrastruktur fram till 2028.
Detta utgör branschens största satsning på att skala nuvarande arkitekturer – det tillvägagångssätt som LeCun offentligt har ifrågasatt.


November 2025: LeCuns planerade avgång
Enligt källor:
- Planerar att lämna inom de kommande månaderna
- Tidiga diskussioner om insamling av medel för world model-startup
- Förväntad forskningstidslinje för 10–20 år
- Fokusera på alternativa arkitekturer kontra att skala befintliga
Detta skulle innebära att man går ifrån tillgången till:
- 600 miljarder dollar i planerad infrastruktur
- 1,3M GPU-utplacering
- En av världens största AI-beräkningsresurser

Vad händer härnäst
Under 1980- och 90-talen fortsatte LeCun med neurala nätverk när fältet hade övergett dem. Hans konträra satsning blev grunden för dagens AI-revolution.
Nu gör han ännu en konträr satsning: att skalning når grundläggande gränser, och sann intelligens kräver förståelse för den fysiska världen, inte bara att förutsäga text.
Meta, OpenAI och Google satsar 600 miljarder dollar på att han har fel – att nuvarande arkitekturer kan nå AGI enbart genom skalan.
Kommer LeCuns tekniska omdöme att visa sig vara förutseende igen, eller kommer skalarna att vinna?
Svaret kommer att definiera nästa decennium för AI.

423,4K
Topp
Rankning
Favoriter

