Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Vi kommer ikke til AGI med LLM-er."
Yann LeCun har sagt dette i årevis. Nå forlater han Meta for å bevise det.
LeCun oppfant konvolusjonelle nevrale nettverk—teknologien bak alle smarttelefonkameraer og selvkjørende biler i dag. Han vant Turing-prisen i 2018, AIs Nobelpris.
Som 65-åring går lederen for Metas FAIR-forskningslaboratorium bort fra 600 milliarder dollar i AI-infrastruktur, og satser mot hele bransjen: Meta, OpenAI, Anthropic, xAI, Google.
Hvem er @ylecun? Hvorfor drar han, og hvorfor er hans neste trekk viktig? Her er historien:
Hvem er Yann LeCun?
- Opprettet konvolusjonsnevrale nettverk (CNN) på 1980-tallet — nå grunnleggende for datamaskinsyn
- Bygde LeNet ved Bell Labs → første storskala applikasjon av dyp læring (banksjekklesing)
- Vant Turing-prisen (2018) med Hinton & Bengio
- Ble med i Meta 2013, grunnla FAIR (Fundamental AI Research)
- Bygget en kultur for åpen forskning: publisering fritt, utgivelse av åpne modeller
Han er en av «gudfedrene av dyp læring».

LeCuns kjernetekniske posisjon
LeCun har vært konsekvent siden 2022: Store språkmodeller har grunnleggende begrensninger. De forutsier tekstmønstre, men mangler:
- Forståelse av dynamikk i den fysiske verden
- Persistent minne
- Kausal resonnering
- Målrettet planlegging
Hans berømte analogi: «Vi kan ikke engang gjenskape katteintelligens eller rotteintelligens, langt mindre hundeintelligens.»
Han går inn for «verdensmodeller» — AI-systemer som lærer ved å observere den fysiske verden, ikke bare ved å lese tekst. Dette representerer ikke en avvisning av LLM-er som ubrukelige, men en tro på at de er utilstrekkelige som vei til generell intelligens.

Skaleringstesen: Hvorfor Meta er uenig
Bransjens enorme investeringer i databehandling hviler på én observasjon: større modeller presterer konsekvent bedre. GPT-3 til GPT-4 viste at kapasiteter dukket opp i stor skala som mindre modeller manglet fullstendig.
Veddemålet: hvis kun skalering kan nå AGI, vinner den som bygger størst infrastruktur.
LeCuns motargument: skala forbedrer tekstprediksjon, ikke sann resonnering eller forståelse av den fysiske verden.
Det organisatoriske skiftet hos Meta
2013–2024: FAIR opererte med betydelig autonomi
- Publisert åpent, mottatt betydelig datakraft, opprettholdt akademisk kultur
April 2025: Llama 4 lanseres med blandede anmeldelser
- Benchmarkene stemte ikke overens med GPT-4.5, Gemini 2, DeepSeek-R1
- Rapporter om internt trykk for å akselerere
Metas ledelse konkluderte med at de måtte omstrukturere AI-innsatsen.

Sommeren 2025: Meta lanserer aggressiv talentrekruttering
- Administrerende direktør Zuckerberg møter personlig forskere ved hjem i Palo Alto og Lake Tahoe
- Signeringsbonuser rapportert opp til 200 millioner dollar (Ruoming Pang fra Apple)
- Rekruttert fra OpenAI, DeepMind, Apple, Anthropic
- Fokusskifte: Fra langsiktig forskning til raskere kommersiell utrulling

Juni 2025: Alexandr Wang-flyttingen
Meta investerer 14,3 milliarder dollar for 49 % av Scale AI, et datainfrastrukturselskap.
Henter inn grunnlegger Alexandr Wang (28) som Chief AI Officer, og leder nye "Meta Superintelligence Labs."
Viktig kontekst:
- Wang bygde Scale AI fra oppstart av dataannotasjon til en verdivurdering på 29 milliarder dollar
- Omfattende samarbeid med store AI-laboratorier (OpenAI, Google, DoD)
- Kjent for operasjonell utførelse, ikke akademisk forskning
Dette endret rapporteringsstrukturene på tvers av Metas AI-organisasjon.

Organisatorisk omstrukturering (juni–august 2025)
Meta oppretter "Meta Superintelligence Labs" (MSL) med fire avdelinger:
1. Neste generasjons modeller (TBD Lab)
2. FAIR (grunnforskning)
3. Produkter og anvendt forskning
4. Infrastruktur
FAIR integrerte seg i en bredere struktur, og mistet noe av den tidligere autonomien.
Noen forskere som verdsatte FAIRs akademiske kultur, sluttet:
- Joelle Pineau → Cohere
- ~600 plasser eliminert i oktober 2025

Infrastrukturinvesteringer i enestående skala
Kapitalutgifter 2025: 66–72 milliarder dollar
Store prosjekter:
- Prometheus (Ohio): 1 gigawatt klynge, 2026
- Hyperion (Louisiana): Multi-gigawatt-anlegg
Langsiktig: Meta projiserer 600 milliarder dollar i AI-infrastruktur frem til 2028.
Dette representerer bransjens største satsing på å skalere dagens arkitekturer — tilnærmingen LeCun offentlig har stilt spørsmål ved.


November 2025: LeCuns planlagte avgang
Ifølge kilder:
- Planlegger å slutte i løpet av de kommende månedene
- Tidlige innsamlingsdiskusjoner for world model startup
- Forventet forskningstidslinje på 10–20 år
- Fokus på alternative arkitekturer kontra å skalere eksisterende
Dette ville bety å gå bort fra tilgangen til:
- 600 milliarder dollar i planlagt infrastruktur
- 1,3M GPU-distribusjon
- En av verdens største AI-beregningsressurser

Hva skjer videre
På 1980- og 90-tallet fortsatte LeCun med nevrale nettverk når feltet hadde forlatt dem. Hans kontrære veddemål ble grunnlaget for dagens AI-revolusjon.
Nå gjør han et annet kontrær veddemål: at skalering treffer grunnleggende grenser, og ekte intelligens krever forståelse av den fysiske verden, ikke bare å forutsi tekst.
Meta, OpenAI og Google vedder 600 milliarder dollar på at han tar feil—at dagens arkitekturer kan nå AGI kun gjennom skalering.
Vil LeCuns tekniske dømmekraft vise seg å være forutseende igjen, eller vil de som skalerer vinne?
Svaret vil definere det neste tiåret med KI.

421,63K
Topp
Rangering
Favoritter

