Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Onafhankelijke analyse van AI-modellen en hostingproviders - kies het beste model en de beste API-provider voor uw use-case
Alibaba heeft Qwen3 Next 80B uitgebracht: een hybride redeneermodel met open gewichten dat een intelligentie-niveau bereikt van DeepSeek V3.1 met slechts 3B actieve parameters
Belangrijkste punten:
💡 Nieuwe architectuur: Het eerste model dat de ‘Qwen3-Next’ fundamentmodellen van @Alibaba_Qwen introduceert, met verschillende belangrijke architectuurkeuzes zoals een hybride aandachtmechanisme van Gated DeltaNet en Gated Attention, en hoge spaarzaamheid met een aandeel van 3,8% actieve parameters, vergeleken met 9,4% voor Qwen3 235B
🧠 Intelligentie: Qwen3 Next 80B (Redeneren) scoort 54 op de Artificial Analysis Intelligence Index, geplaatst naast DeepSeek V3.1 (Redeneren). De niet-rederende variant scoort 45, in lijn met gpt-oss-20B en Llama Nemotron Super 49B v1.5 (Redeneren)
💲 Prijsmodel: Per token-prijs op @alibaba_cloud is $0,5/$6 per 1M invoer/uitvoer tokens voor redeneren en $0,5/$2 voor de niet-rederende variant. Dit vergeleken met hogere prijzen voor Qwen3 235B 2507 van $0,7/$8,4 met redeneren en $0,7/$2,8 zonder - een ≥25% vermindering afhankelijk van de werklasten
⚙️ Modelgegevens: Het model heeft een native contextvenster van 256k tokens en is alleen tekst, zonder multimodale invoer of uitvoer. Met slechts 80B parameters bij FP8 past het model op een enkele H200 GPU

73
De lancering van onze State of Generative Media 2025-enquête, ondersteund door @fal! Doe mee om het volledige enquêteverslag te ontvangen en maak kans op een paar Meta Ray-Bans 🕶️
We voeren de enquête uit om inzichten te verzamelen over de staat van Generative Media in 2025. Dit omvat perspectieven op hoe organisaties gebruikmaken van, kiezen voor en toegang krijgen tot beeld-, video- en muziekmodellen!
Waarom deelnemen?
✅ Ontvang een gratis exemplaar van het uitgebreide enquêteverslag (alleen een beperkte versie zal openbaar beschikbaar zijn)
✅ Een kans om een paar Ray-Ban Meta AI-brillen te winnen 🕶️
✅ Bijdragen aan het delen van inzichten over de belangrijkste trends die Generative Media vormgeven
Link in de onderstaande thread! ⬇️⬇️⬇️⬇️⬇️⬇️⬇️
121
DeepSeek lanceert V3.1, die V3 en R1 verenigt in een hybride redeneermodel met een incrementele toename in intelligentie
Incrementele toename in intelligentie: De eerste benchmarkresultaten voor DeepSeek V3.1 tonen een Artificial Analysis Intelligence Index van 60 in redeneermodus, een stijging ten opzichte van de score van 59 van R1. In niet-redeneermodus behaalt V3.1 een score van 49, een grotere stijging ten opzichte van de eerdere V3 0324 score van 44. Dit laat V3.1 (redenerend) achter bij Alibaba's nieuwste Qwen3 235B 2507 (redenerend) - DeepSeek heeft de leiding niet teruggenomen.
Hybride redenering: @deepseek_ai is voor het eerst overgestapt op een hybride redeneermodel - dat zowel redenerende als niet-redenerende modi ondersteunt. DeepSeek's overstap naar een verenigd hybride redeneermodel imiteert de aanpak van OpenAI, Anthropic en Google. Het is echter interessant op te merken dat Alibaba onlangs hun hybride aanpak, die ze voor Qwen3 favoriseerden, heeft verlaten met hun aparte releases van Qwen3 2507 redenerings- en instructiemodellen.
Functieaanroep / toolgebruik: Hoewel DeepSeek verbeterde functieaanroepen voor het model claimt, ondersteunt DeepSeek V3.1 geen functieaanroepen in redeneermodus. Dit zal waarschijnlijk de mogelijkheid om agentische workflows met intelligentie-eisen te ondersteunen, aanzienlijk beperken, inclusief in coderingsagenten.
Tokengebruik: DeepSeek V3.1 scoort incrementeel hoger in redeneermodus dan DeepSeek R1, en gebruikt iets minder tokens in de evaluaties die we gebruiken voor de Artificial Analysis Intelligence Index. In niet-redeneermodus gebruikt het iets meer tokens dan V3 0324 - maar nog steeds meerdere keren minder dan in zijn eigen redeneermodus.
API: DeepSeek's eerste partij API bedient nu het nieuwe DeepSeek V3.1 model op zowel hun chat- als redeneereindpunten - simpelweg door te veranderen of de einddenkende </think> token aan het model in de chattemplate wordt gegeven om te controleren of het model zal redeneren.
Architectuur: DeepSeek V3.1 is architectonisch identiek aan de eerdere V3 en R1 modellen, met 671B totale parameters en 37B actieve parameters.
Gevolgen: We zouden voorzichtig zijn met het maken van aannames over wat deze release impliceert over DeepSeek's vooruitgang naar een toekomstig model dat in geruchten V4 of R2 wordt genoemd. We merken op dat DeepSeek eerder het laatste model dat is gebouwd op hun V2-architectuur op 10 december 2024 heeft vrijgegeven, slechts twee weken voordat ze V3 uitbrachten.


409
Boven
Positie
Favorieten