DeepSeek V3.2 är den #2 mest intelligenta modellen för öppna vikter och ligger även före Grok 4 och Claude Sonnet 4.5 (Tänkande) – den tar DeepSeek Sparse Attention från 'experimentell' status och kombinerar det med en materiell ökning av intelligensen @deepseek_ai V3.2 får 66 poäng på Artificial Analysis Intelligence Index; en betydande intelligensökning jämfört med DeepSeek V3.2-Exp (+9 poäng) som släpptes i september 2025. DeepSeek har bytt sin huvudsakliga API-endpoint till V3.2, utan någon prisändring från V3.2-Exp-priset – detta sätter priset på endast 0,28 dollar/0,42 dollar per 1 miljon in-/ut-tokens, med 90 % rabatt för cachade inmatningstokens. Sedan den ursprungliga DeepSeek V3-releasen för ~11 månader sedan i slutet av december 2024 har DeepSeeks V3-arkitektur med totalt 671 miljarder och 37 miljarder aktiva parametrar gått från en modell som ger 32 till att få 66 i Artificial Analysis Intelligence Index. DeepSeek har också släppt V3.2-Speciale, en variant med endast resonerande och förbättrade funktioner men betydligt högre tokenanvändning. Detta är en vanlig avvägning i resonemangsmodeller, där mer förbättrat resonemang generellt ger högre intelligenspoäng och fler utdatatokens. V3.2-Speciale finns tillgängligt via DeepSeeks förstaparts-API fram till den 15 december. V3.2-Speciale får för närvarande lägre poäng på Artificial Analysis Intelligence Index (59) än V3.2 (Reasoning, 66) eftersom DeepSeeks förstaparts-API ännu inte stöder verktygsanrop för denna modell. Om V3.2-Speciale matchade V3.2:s tau2-poäng (91 %) med verktygsanrop aktiverat, skulle den få ~68 på Intelligence Index, vilket gör den till den mest intelligenta modellen med öppna vikter. V3.2-Speciale använder 160 miljoner utdatatoken för att köra Artificial Analysis Intelligence Index, nästan ~2 gånger antalet tokens som används av V3.2 i resonemangsläge. DeepSeek V3.2 använder en identisk arkitektur som V3.2-Exp, som introducerade DeepSeek Sparse Attention (DSA) för att minska den beräkning som krävs för långkontextinferens. Vårt Long Context Reasoning-benchmark visade ingen kostnad för intelligensen av införandet av DSA. DeepSeek speglade denna kostnadsfördel med V3.2-Exp genom att sänka prissättningen på deras förstaparts-API från $0,56/$1,68 till $0,28/$0,42 per 1 miljon input/output-tokens – en prissättning på 50 % respektive 75 % i prissättningen av input- och outputtokens. Viktiga benchmarking-insikter: ➤ 🧠 DeepSeek V3.2: I resonemangsläge får DeepSeek V3.2 66 poäng på Artificial Analysis Intelligence Index och placerar sig likvärdigt med Kimi K2 Thinking (67) och före Grok 4 (65), Grok 4.1 Fast (Reasoning, 64) och Claude Sonnet 4.5 (Thinking, 63). Den visar tydliga förbättringar jämfört med V3.2-Exp (57) över verktygsanvändning, långkontextresonemang och kodning. ➤ 🧠 DeepSeek V3.2-Speciale: V3.2-Speciale får högre poäng än V3.2 (Resonemang) i 7 av de 10 riktmärkena i vårt intelligensindex. V3.2-Speciale har nu de högsta respektive näst högsta poängen bland alla modeller för AIME25 (97 %) respektive LiveCodeBench (90 %). Men som nämnts ovan stöder DeepSeeks förstaparts-API för V3.2-Speciale inte verktygsanrop och modellen får ett betyg på 0 i tau2-benchmarken. ➤ 📚 Hallucination and Knowledge: DeepSeek V3.2-Speciale och V3.2 är de högst rankade öppna viktmodellerna på Artificial Analysis Omniscience Index med poängen -19 respektive -23. Proprietära modeller från Google, Anthropic, OpenAI och xAI leder vanligtvis detta index. ➤ ⚡ Icke-resonerande prestanda: I icke-resonerande läge får DeepSeek V3.2 52 poäng på Artificial Analysis Intelligence Index (+6 poäng jämfört med V3.2-Exp) och är den #3 mest intelligenta icke-resonerande modellen. DeepSeek V3.2 (Non-reasoning) matchar intelligensen i DeepSeek R1 0528, en frontier reasoning-modell från maj 2025, och lyfter fram de snabba intelligensvinster som uppnåtts genom förträning och RL-förbättringar i år. ➤ ⚙️ Tokeneffektivitet: I resonemangsläge använde DeepSeek V3.2 fler tokens än V3.2-Exp för att köra Artificial Analysis Intelligence Index (från 62M till 86M). Tokenanvändningen förblir liknande i icke-resonerande variant. V3.2-Speciale visar betydligt högre tokenanvändning, med ~160 miljoner utdatatoken före Kimi K2 Thinking (140M) och Grok 4 (120M) ➤💲Prissättning: DeepSeek har inte uppdaterat prissättningen per token för sin förstapartsmodell och alla tre varianter finns tillgängliga för $0,28/$0,42 per 1 miljon input/output-tokens Andra modelldetaljer: ➤ ©️ Licensiering: DeepSeek V3.2 finns tillgänglig under MIT-licensen ➤ 🌐 Tillgänglighet: DeepSeek V3.2 finns tillgängligt via DeepSeek API, som har ersatt DeepSeek V3.2-Exp. Användare kan komma åt DeepSeek V3.2-Speciale via ett tillfälligt DeepSeek API fram till den 15 december. Med tanke på intelligensökningen i denna version förväntar vi oss att flera tredjepartsleverantörer snart kommer att använda denna modell. ➤ 📏 Storlek: DeepSeek V3.2 Exp har totalt 671B parametrar och 37B aktiva parametrar. Detta är samma som alla tidigare modeller i DeepSeek V3- och R1-serierna
Med DeepSeeks förstaparts-API-prissättning på 0,28 dollar/0,42 dollar per 1 miljon in- och utmatningstokens ligger V3.2 (Reasoning) på Pareto-gränsen mellan diagrammet Intelligens kontra kostnad för att köra artificiell analysintelligens
DeepSeek V3.2-Speciale är den högst rankade modellen för öppna vikter på Artificial Analysis Omniscience Index medan V3.2 (Reasoning) matchar Kimi K2 Thinking
DeepSeek V3.2 är mer utförlig än sin föregångare i resonemangsläge, och använder fler utdatatoken för att köra Artificial Analysis Intelligence Index (86M vs. 62M).
Jämför hur DeepSeek V3.2 presterar i förhållande till modeller du använder eller överväger på:
66,91K