DeepSeek V3.2 is het #2 meest intelligente open gewichtenmodel en staat ook boven Grok 4 en Claude Sonnet 4.5 (Thinking) - het haalt DeepSeek Sparse Attention uit de ‘experimentele’ status en koppelt het aan een materiële boost in intelligentie. @deepseek_ai V3.2 scoort 66 op de Artificial Analysis Intelligence Index; een substantiële verhoging van de intelligentie ten opzichte van DeepSeek V3.2-Exp (+9 punten) die in september 2025 werd uitgebracht. DeepSeek heeft zijn belangrijkste API-eindpunt gewijzigd naar V3.2, zonder prijswijziging ten opzichte van de V3.2-Exp-prijzen - dit brengt de prijs op slechts $0.28/$0.42 per 1M input/output tokens, met 90% korting voor gecachte input tokens. Sinds de oorspronkelijke DeepSeek V3-release ~11 maanden geleden eind december 2024, heeft de V3-architectuur van DeepSeek met 671B totaal/37B actieve parameters ervoor gezorgd dat ze van een model dat een 32 scoorde naar een score van 66 zijn gegaan op de Artificial Analysis Intelligence Index. DeepSeek heeft ook V3.2-Speciale uitgebracht, een variant die alleen redenering ondersteunt met verbeterde mogelijkheden maar aanzienlijk hoger tokenverbruik. Dit is een veelvoorkomende afweging in redeneringsmodellen, waarbij meer verbeterde redenering over het algemeen hogere intelligentiescores en meer outputtokens oplevert. V3.2-Speciale is beschikbaar via de first-party API van DeepSeek tot 15 december. V3.2-Speciale scoort momenteel lager op de Artificial Analysis Intelligence Index (59) dan V3.2 (Redenering, 66) omdat de first-party API van DeepSeek deze model nog geen toolaanroep ondersteunt. Als V3.2-Speciale de tau2-score van V3.2 (91%) zou evenaren met ingeschakelde toolaanroep, zou het ~68 scoren op de Intelligence Index, waardoor het het meest intelligente open-gewichtenmodel zou zijn. V3.2-Speciale gebruikt 160M outputtokens om de Artificial Analysis Intelligence Index uit te voeren, bijna ~2x het aantal tokens dat door V3.2 in redeneringsmodus wordt gebruikt. DeepSeek V3.2 gebruikt een identieke architectuur als V3.2-Exp, die DeepSeek Sparse Attention (DSA) introduceerde om de benodigde rekencapaciteit voor lange contextinference te verminderen. Onze Long Context Reasoning benchmark toonde geen kosten aan intelligentie door de introductie van DSA. DeepSeek weerspiegelde dit kostenvoordeel van V3.2-Exp door de prijzen op hun first-party API te verlagen van $0.56/$1.68 naar $0.28/$0.42 per 1M input/output tokens - een vermindering van 50% en 75% in de prijzen van input- en outputtokens respectievelijk. Belangrijke benchmarkconclusies: ➤🧠 DeepSeek V3.2: In redeneringsmodus scoort DeepSeek V3.2 66 op de Artificial Analysis Intelligence Index en plaatst het gelijk aan Kimi K2 Thinking (67) en voor Grok 4 (65), Grok 4.1 Fast (Redenering, 64) en Claude Sonnet 4.5 (Thinking, 63). Het toont opmerkelijke verbeteringen ten opzichte van V3.2-Exp (57) op het gebied van toolgebruik, lange contextredenering en codering. ➤🧠 DeepSeek V3.2-Speciale: V3.2-Speciale scoort hoger dan V3.2 (Redenering) op 7 van de 10 benchmarks in onze Intelligence Index. V3.2-Speciale heeft nu de hoogste en tweede hoogste scores onder alle modellen voor AIME25 (97%) en LiveCodeBench (90%) respectievelijk. Echter, zoals hierboven vermeld, ondersteunt de first-party API van DeepSeek voor V3.2-Speciale geen toolaanroep en het model krijgt een score van 0 op de tau2 benchmark. ➤📚 Hallucinatie en Kennis: DeepSeek V3.2-Speciale en V3.2 zijn de hoogst gerangschikte open gewichtenmodellen op de Artificial Analysis Omniscience Index met scores van -19 en -23 respectievelijk. Proprietary modellen van Google, Anthropic, OpenAI en xAI leiden doorgaans deze index. ➤⚡ Niet-redeneringsprestaties: In niet-redeneringsmodus scoort DeepSeek V3.2 52 op de Artificial Analysis Intelligence Index (+6 punten ten opzichte van V3.2-Exp) en is het het #3 meest intelligente niet-redeneringsmodel. DeepSeek V3.2 (Niet-redenering) evenaart de intelligentie van DeepSeek R1 0528, een grensverleggend redeneringsmodel van mei 2025, wat de snelle intelligentiewinst aantoont die dit jaar is behaald door pre-training en RL-verbeteringen. ➤⚙️ Token efficiëntie: In redeneringsmodus gebruikte DeepSeek V3.2 meer tokens dan V3.2-Exp om de Artificial Analysis Intelligence Index uit te voeren (van 62M naar 86M). Het tokenverbruik blijft vergelijkbaar in de niet-redeneringsvariant. V3.2-Speciale toont aanzienlijk hoger tokenverbruik, met ~160M outputtokens, voor Kimi K2 Thinking (140M) en Grok 4 (120M). ➤💲Prijzen: DeepSeek heeft de prijs per token voor hun first-party niet bijgewerkt en alle drie de varianten zijn beschikbaar voor $0.28/$0.42 per 1M input/output tokens. Andere modelgegevens: ➤ ©️ Licenties: DeepSeek V3.2 is beschikbaar onder de MIT-licentie. ➤ 🌐 Beschikbaarheid: DeepSeek V3.2 is beschikbaar via de DeepSeek API, die DeepSeek V3.2-Exp heeft vervangen. Gebruikers kunnen DeepSeek V3.2-Speciale toegang krijgen via een tijdelijke DeepSeek API tot 15 december. Gezien de verhoging van de intelligentie in deze release, verwachten we dat een aantal derde partijen dit model binnenkort zullen aanbieden. ➤ 📏 Grootte: DeepSeek V3.2 Exp heeft 671B totale parameters en 37B actieve parameters. Dit is hetzelfde als alle eerdere modellen in de DeepSeek V3 en R1-serie.
Bij de eerste partij API-prijzen van DeepSeek van $0,28/$0,42 per 1M invoer/uitvoer tokens, bevindt V3.2 (Redeneren) zich op de Pareto-grens van de Intelligence versus Kosten om Kunstmatige Analyse Intelligentie Index grafiek uit te voeren.
DeepSeek V3.2-Speciale is het hoogst gerangschikte open gewichtenmodel op de Artificial Analysis Omniscience Index, terwijl V3.2 (Redeneren) overeenkomt met Kimi K2 Denken
DeepSeek V3.2 is uitgebreider dan zijn voorganger in de redeneermodus, waarbij meer outputtokens worden gebruikt om de Artificial Analysis Intelligence Index uit te voeren (86M vs. 62M).
Vergelijk hoe DeepSeek V3.2 presteert ten opzichte van de modellen die je gebruikt of overweegt bij:
66,95K