Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Wir werden mit LLMs keine AGI erreichen."
Yann LeCun sagt das seit Jahren. Jetzt verlässt er Meta, um es zu beweisen.
LeCun erfand die konvolutionalen neuronalen Netze – die Technologie hinter jeder Smartphone-Kamera und jedem selbstfahrenden Auto heute. Er gewann 2018 den Turing-Preis, den Nobelpreis der KI.
Mit 65 Jahren verlässt der Leiter von Metas FAIR-Forschungslabor eine Infrastruktur im Wert von 600 Milliarden Dollar in der KI und wettet gegen die gesamte Branche: Meta, OpenAI, Anthropic, xAI, Google.
Wer ist @ylecun? Warum verlässt er das Unternehmen und warum ist sein nächster Schritt wichtig? Hier ist die Geschichte:
Wer ist Yann LeCun?
- Schuf in den 1980er Jahren die konvolutionalen neuronalen Netze (CNNs) – jetzt grundlegend für die Computer Vision
- Entwickelte LeNet bei Bell Labs → erste großangelegte Anwendung des Deep Learning (Bankchecklesung)
- Gewann den Turing Award (2018) mit Hinton & Bengio
- Trat 2013 Meta bei, gründete FAIR (Fundamental AI Research)
- Schuf eine Kultur der offenen Forschung: freies Publizieren, Veröffentlichung offener Modelle
Er ist einer der "Paten des Deep Learning."

LeCuns zentrale technische Position
LeCun ist seit 2022 konsequent: Große Sprachmodelle haben grundlegende Einschränkungen. Sie sagen Textmuster voraus, aber es fehlt ihnen an:
- Verständnis der Dynamik der physischen Welt
- Persistenter Erinnerung
- Kausaler Argumentation
- Zielgerichteter Planung
Seine berühmte Analogie: "Wir können nicht einmal die Intelligenz von Katzen oder Ratten reproduzieren, geschweige denn die von Hunden."
Er plädiert für "Weltmodelle" – KI-Systeme, die durch Beobachtung der physischen Welt lernen, nicht nur durch das Lesen von Text. Dies stellt nicht eine Ablehnung von LLMs als nutzlos dar, sondern den Glauben, dass sie als Weg zur allgemeinen Intelligenz unzureichend sind.

Die Skalierungsthese: Warum Meta nicht zustimmt
Die massiven Investitionen der Branche in Rechenleistung basieren auf einer Beobachtung: Größere Modelle erzielen durchweg bessere Ergebnisse. GPT-3 bis GPT-4 zeigte Fähigkeiten, die in kleinerem Maßstab völlig fehlten.
Die Wette: Wenn Skalierung allein AGI erreichen kann, gewinnt, wer die größte Infrastruktur aufbaut.
LeCuns Gegenargument: Skalierung verbessert die Textvorhersage, nicht das wahre Denken oder das Verständnis der physischen Welt.
Der organisatorische Wandel bei Meta
2013–2024: FAIR arbeitete mit erheblicher Autonomie
- Offen veröffentlicht, erhielt erhebliche Rechenleistung, pflegte eine akademische Kultur
April 2025: Llama 4 wird mit gemischten Bewertungen veröffentlicht
- Benchmarks entsprachen nicht GPT-4.5, Gemini 2, DeepSeek-R1
- Berichte über internen Druck zur Beschleunigung
Die Führung von Meta kam zu dem Schluss, dass sie die KI-Bemühungen umstrukturieren mussten.

Sommer 2025: Meta startet aggressive Talentakquise
- CEO Mark Zuckerberg trifft sich persönlich mit Forschern in ihren Häusern in Palo Alto und Lake Tahoe
- Unterzeichnungsboni von bis zu 200 Millionen Dollar berichtet (Ruoming Pang von Apple)
- Rekrutiert von OpenAI, DeepMind, Apple, Anthropic
- Fokusverschiebung: Von langfristiger Forschung hin zu schnellerer kommerzieller Umsetzung

Juni 2025: Der Alexandr Wang Move
Meta investiert 14,3 Milliarden Dollar für 49 % von Scale AI, einem Unternehmen für Dateninfrastruktur.
Bringt den Gründer Alexandr Wang (28) als Chief AI Officer an Bord, der die neuen "Meta Superintelligence Labs" leitet.
Wichtiger Kontext:
- Wang baute Scale AI von einem Startup für Datenannotation auf eine Bewertung von 29 Milliarden Dollar
- Umfassende Beziehungen zu großen KI-Labors (OpenAI, Google, DoD)
- Bekannt für operative Umsetzung, nicht für akademische Forschung
Dies änderte die Berichtstrukturen in der KI-Organisation von Meta.

Organisatorische Umstrukturierung (Juni-August 2025)
Meta gründet die "Meta Superintelligence Labs" (MSL) mit vier Abteilungen:
1. Modelle der nächsten Generation (TBD Lab)
2. FAIR (grundlegende Forschung)
3. Produkte & Angewandte Forschung
4. Infrastruktur
FAIR in die breitere Struktur integriert, verliert dabei einen Teil der vorherigen Autonomie.
Einige Forscher, die die akademische Kultur von FAIR schätzten, haben das Unternehmen verlassen:
- Joelle Pineau → Cohere
- ~600 Stellen wurden im Oktober 2025 gestrichen

Investitionen in Infrastruktur in beispiellosem Umfang
Kapitalausgaben 2025: 66–72 Milliarden USD
Wichtige Projekte:
- Prometheus (Ohio): 1 Gigawatt-Cluster, 2026
- Hyperion (Louisiana): Multi-Gigawatt-Anlage
Langfristig: Meta plant 600 Milliarden USD in KI-Infrastruktur bis 2028.
Dies stellt die größte Wette der Branche auf die Skalierung der aktuellen Architekturen dar — den Ansatz, den LeCun öffentlich in Frage gestellt hat.


November 2025: LeCuns geplanter Abschied
Laut Quellen:
- Pläne, in den kommenden Monaten zu gehen
- Frühe Fundraising-Diskussionen für ein Weltmodell-Startup
- 10-20 Jahre Forschungszeitraum erwartet
- Fokus auf alternative Architekturen im Vergleich zur Skalierung bestehender
Das würde bedeuten, auf den Zugang zu verzichten:
- 600 Milliarden Dollar an geplanter Infrastruktur
- 1,3 Millionen GPU-Bereitstellungen
- Eine der größten KI-Computerressourcen der Welt

Was passiert als Nächstes
In den 1980er-90er Jahren hielt LeCun an neuronalen Netzen fest, als das Feld sie aufgegeben hatte. Seine konträre Wette wurde zur Grundlage der heutigen KI-Revolution.
Jetzt macht er eine weitere konträre Wette: dass Skalierung fundamentale Grenzen erreicht und wahre Intelligenz das Verständnis der physischen Welt erfordert, nicht nur die Vorhersage von Text.
Meta, OpenAI und Google setzen über 600 Milliarden Dollar darauf, dass er falsch liegt – dass aktuelle Architekturen AGI allein durch Skalierung erreichen können.
Wird LeCuns technisches Urteil sich erneut als weitsichtig erweisen, oder werden die Skalierer gewinnen?
Die Antwort wird das nächste Jahrzehnt der KI definieren.

421,63K
Top
Ranking
Favoriten

