Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Unabhängige Analyse von KI-Modellen und Hosting-Providern - wählen Sie das beste Modell und den besten API-Anbieter für Ihren Anwendungsfall
Alibaba hat Qwen3 Next 80B veröffentlicht: ein hybrides Modell mit offenen Gewichten, das eine Intelligenz auf DeepSeek V3.1-Niveau mit nur 3B aktiven Parametern erreicht.
Wichtige Erkenntnisse:
💡 Neuartige Architektur: Erstes Modell, das die ‚Qwen3-Next‘-Grundlagenmodelle von @Alibaba_Qwen einführt, mit mehreren wichtigen Architekturentscheidungen wie einem hybriden Aufmerksamkeitsmechanismus von Gated DeltaNet und Gated Attention sowie einer hohen Sparsamkeit mit einem Anteil aktiver Parameter von 3,8 %, im Vergleich zu 9,4 % für Qwen3 235B.
🧠 Intelligenz: Qwen3 Next 80B (Reasoning) erzielt 54 im Artificial Analysis Intelligence Index und wird zusammen mit DeepSeek V3.1 (Reasoning) platziert. Die nicht-reasoning Variante erzielt 45, im Einklang mit gpt-oss-20B und Llama Nemotron Super 49B v1.5 (Reasoning).
💲 Preisgestaltung: Die Preisgestaltung pro Token auf @alibaba_cloud beträgt $0,5/$6 pro 1M Eingabe-/Ausgabetoken für Reasoning und $0,5/$2 für die nicht-reasoning Variante. Dies steht im Vergleich zu höheren Preisen für Qwen3 235B 2507 von $0,7/$8,4 mit Reasoning und $0,7/$2,8 ohne - eine Reduzierung von ≥25 % je nach Arbeitslast.
⚙️ Modelldetails: Das Modell hat ein natives Kontextfenster von 256k Tokens und ist nur textbasiert, ohne multimodale Eingaben oder Ausgaben. Mit nur 80B Parametern im FP8 passt das Modell auf eine einzelne H200 GPU.

97
Starten Sie unsere Umfrage zum Stand der Generativen Medien 2025, unterstützt von @fal! Nehmen Sie teil, um den vollständigen Umfragebericht zu erhalten und eine Paar Meta Ray-Bans zu gewinnen 🕶️
Wir führen die Umfrage durch, um Einblicke in den Stand der Generativen Medien im Jahr 2025 zu sammeln. Dazu gehören Perspektiven darüber, wie Organisationen Bild-, Video- und Musikmodelle nutzen, auswählen und darauf zugreifen!
Warum teilnehmen?
✅ Erhalten Sie eine kostenlose Kopie des erweiterten Umfrageberichts (nur eine limitierte Version wird öffentlich verfügbar sein)
✅ Eine Chance, ein Paar Ray-Ban Meta AI-Brillen zu gewinnen 🕶️
✅ Tragen Sie dazu bei, Einblicke in die wichtigsten Trends zu teilen, die die Generativen Medien prägen
Link im Thread unten! ⬇️⬇️⬇️⬇️⬇️⬇️⬇️
159
DeepSeek startet V3.1 und vereint V3 und R1 in ein hybrides Denkmodell mit einem schrittweisen Anstieg der Intelligenz
Schrittweiser Anstieg der Intelligenz: Erste Benchmarking-Ergebnisse für DeepSeek V3.1 zeigen einen Artificial Analysis Intelligence Index von 60 im Denkmodus, gegenüber einem Wert von 59 für R1. Im Nicht-Denkmodus erreicht V3.1 einen Wert von 49, was einen größeren Anstieg gegenüber dem früheren V3 0324-Wert von 44 darstellt. Damit bleibt V3.1 (Denkmodus) hinter Alibabas neuestem Qwen3 235B 2507 (Denkmodus) zurück - DeepSeek hat die Führung nicht zurückerobert.
Hybrides Denken: @deepseek_ai hat zum ersten Mal ein hybrides Denkmodell eingeführt - das sowohl Denk- als auch Nicht-Denkmodi unterstützt. Der Schritt von DeepSeek zu einem einheitlichen hybriden Denkmodell ahmt den Ansatz von OpenAI, Anthropic und Google nach. Es ist jedoch interessant zu bemerken, dass Alibaba kürzlich ihren hybriden Ansatz, den sie für Qwen3 bevorzugten, mit den separaten Veröffentlichungen von Qwen3 2507 Denk- und Instruktionsmodellen aufgegeben hat.
Funktionsaufrufe / Werkzeugnutzung: Während DeepSeek eine verbesserte Funktionsaufrufunterstützung für das Modell beansprucht, unterstützt DeepSeek V3.1 keine Funktionsaufrufe im Denkmodus. Dies wird wahrscheinlich die Fähigkeit erheblich einschränken, agentische Workflows mit Intelligenzanforderungen zu unterstützen, einschließlich in Codierungsagenten.
Token-Nutzung: DeepSeek V3.1 erzielt im Denkmodus schrittweise höhere Werte als DeepSeek R1 und verwendet in den Bewertungen, die wir für den Artificial Analysis Intelligence Index verwenden, leicht weniger Tokens. Im Nicht-Denkmodus verwendet es leicht mehr Tokens als V3 0324 - aber immer noch mehrere Male weniger als im eigenen Denkmodus.
API: Die First-Party-API von DeepSeek bedient jetzt das neue DeepSeek V3.1-Modell sowohl an ihren Chat- als auch an den Denk-Endpunkten - indem einfach geändert wird, ob das End-Denk-</think>-Token im Chat-Template an das Modell übergeben wird, um zu steuern, ob das Modell denken wird.
Architektur: DeepSeek V3.1 ist architektonisch identisch mit den vorherigen V3- und R1-Modellen, mit insgesamt 671B Parametern und 37B aktiven Parametern.
Implikationen: Wir würden raten, vorsichtig zu sein, wenn es darum geht, Annahmen darüber zu treffen, was diese Veröffentlichung über DeepSeeks Fortschritte in Richtung eines zukünftigen Modells, das in Gerüchten als V4 oder R2 bezeichnet wird, impliziert. Wir stellen fest, dass DeepSeek zuvor das endgültige Modell, das auf ihrer V2-Architektur basierte, am 10. Dezember 2024 veröffentlicht hat, nur zwei Wochen bevor V3 veröffentlicht wurde.


442
Top
Ranking
Favoriten