DeepSeek V3.2 on #2 älykkäin avopainomalli ja sijoittuu myös Grok 4:n ja Claude Sonnet 4.5:n (Ajattelu) edelle – se poistaa DeepSeek Sparse Attentionin 'kokeellisesta' tilasta ja yhdistää siihen aineellisen lisän älykkyyteen @deepseek_ai V3.2 saa 66 pistettä Artificial Analysis Intelligence Indexissä; merkittävä tiedustelun nousu verrattuna DeepSeek V3.2-Exp (+9 pistettä), joka julkaistiin syyskuussa 2025. DeepSeek on vaihtanut pää-API-päätepisteensä V3.2:een, eikä hinnoittelussa ole muutosta verrattuna V3.2-EXP-hinnoitteluun – tämä asettaa hinnoittelun vain $0.28/$0.42 per 1M input/output token, ja 90 % alennus välimuistissa oleville syötetokeneille. Alkuperäisen DeepSeek V3 -julkaisun jälkeen ~11 kuukautta sitten joulukuun lopussa 2024, DeepSeekin V3-arkkitehtuuri, jossa on 671B kokonaisparametreja/37B aktiivisia parametreja, on saanut heidät Artificial Analysis Intelligence Indexissä 32 pisteestä 66:een. DeepSeek on myös julkaissut V3.2-Specialen, pelkästään päättelyyn perustuvan version, jossa on parannetut ominaisuudet mutta huomattavasti suurempi tokenien käyttö. Tämä on yleinen kompromissi päättelymalleissa, joissa paranneltu päättely tuottaa yleensä korkeammat älykkyyspisteet ja enemmän tulostokeneita. V3.2-Speciale on saatavilla DeepSeekin ensimmäisen osapuolen API:n kautta 15. joulukuuta asti. V3.2-Speciale saa tällä hetkellä alhaisemmat pisteet Artificial Analysis Intelligence Indexissä (59) kuin V3.2 (Reasoning, 66), koska DeepSeekin ensimmäisen osapuolen API ei vielä tue työkalukutsua tälle mallille. Jos V3.2-Speciale täsmäisi V3.2:n tau2-pistemäärän (91 %) työkalukutsun ollessa käytössä, se saisi ~68 pisteen Älykkyysindeksissä, tehden siitä älykkäimmän avoimen painomallin. V3.2-Speciale käyttää 160M output tokenia Artificial Analysis Intelligence Indexin suorittamiseen, mikä on lähes ~2-kertainen määrä V3.2:n käyttämien tokenien määrään verrattuna päättelytilassa. DeepSeek V3.2 käyttää identtistä arkkitehtuuria V3.2-Exp:n kanssa, joka esitteli DeepSeek Sparse Attention (DSA) -menetelmän vähentääkseen pitkän kontekstipäättelyn vaatimaa laskentaa. Long Context Reasoning -testimme osoitti, ettei DSA:n käyttöönotto haitannut tiedustelua. DeepSeek heijasti tätä V3.2-EXP:n kustannusetua laskemalla ensimmäisen osapuolen API:n hinnoittelua 0,56 dollarista/1,68 dollarista 0,28 dollariin/0,42 dollariin 1 miljoona syöttö/lähtö -tokenia kohden – 50 % ja 75 % alennus syöttö- ja lähtötokenien hinnoittelussa. Keskeiset benchmarking-havainnot: ➤ 🧠 DeepSeek V3.2: Päättelymoodissa DeepSeek V3.2 saa 66 pistettä Artificial Analysis Intelligence Indexissä ja sijoittuu vastaavasti Kimi K2 Thinking (67) -pisteen edelle sekä Grok 4:n (65), Grok 4.1 Fastin (Päättely, 64) ja Claude Sonnetin 4,5 (Ajattelu, 63) edelle. Se osoittaa merkittäviä parannuksia verrattuna V3.2-Exp (57) työkalujen käytössä, pitkän kontekstipäättelyn ja koodauksen osalta. ➤ 🧠 DeepSeek V3.2-Speciale: V3.2-Speciale saa korkeammat pisteet kuin V3.2 (Päättely) seitsemässä kymmenestä Älykkyysindeksimme vertailukohdasta. V3.2-Speciale saa nyt korkeimmat ja toiseksi korkeimmat pisteet kaikista malleista AIME25:ssä (97 %) ja LiveCodeBenchissä (90 %). Kuitenkin, kuten yllä mainittiin, DeepSeekin ensimmäisen osapuolen V3.2-Speciale API ei tue työkalujen kutsumista, ja malli saa tau2-vertailussa arvosanan 0. ➤ 📚 Hallusinaatio ja Tieto: DeepSeek V3.2-Speciale ja V3.2 ovat korkeimmalle sijoitetut avoimen painon mallit Artificial Analysis Omniscience Indexissä, pisteet -19 ja -23. Googlen, Anthropicin, OpenAI:n ja xAI:n omat mallit johtavat tyypillisesti tätä indeksiä. ➤ ⚡ Ei-päättelykyky: Ei-päättelytilassa DeepSeek V3.2 saa 52 pistettä Artificial Analysis Intelligence Indexissä (+6 pistettä vs. V3.2-Exp) ja on #3 älykkäin ei-päättelymalli. DeepSeek V3.2 (Non-reasoning) vastaa DeepSeek R1 0528:n älykkyyttä, joka on toukokuussa 2025 julkaistu rajapäättelymalli, ja korostaa nopeaa älykkyyden kehitystä esikoulutuksen ja RL-parannusten kautta tänä vuonna. ➤ ⚙️ Tokenien tehokkuus: Päättelytilassa DeepSeek V3.2 käytti enemmän tokeneita kuin V3.2-Exp Artificial Analysis Intelligence Indexin ajamiseen (62M–86M). Tokenin käyttö pysyy samankaltaisena ei-päättelymuodoissa. V3.2-Speciale osoittaa merkittävästi korkeampaa tokenien käyttöä, käyttäen ~160M output tokeneita ennen Kimi K2 Thinkingiä (140M) ja Grok 4:ää (120M) ➤💲Hinnoittelu: DeepSeek ei ole päivittänyt token-kohtaista hinnoittelua ensimmäiselle osapuolelleen, ja kaikki kolme varianttia ovat saatavilla hintaan $0,28/$0,42 per 1 miljoona syöttö/ulostulotokenia Muita mallin yksityiskohtia: ➤ ©️ Lisensointi: DeepSeek V3.2 on saatavilla MIT-lisenssillä ➤ 🌐 Saatavuus: DeepSeek V3.2 on saatavilla DeepSeek API:n kautta, joka on korvannut DeepSeek V3.2-Exp:n. Käyttäjät voivat käyttää DeepSeek V3.2-Specialea väliaikaisen DeepSeek API:n kautta 15. joulukuuta asti. Tämän julkaisun älykkyyden parannuksen vuoksi odotamme, että useat kolmannen osapuolen palveluntarjoajat palvelevat tätä mallia pian. ➤ 📏 Koko: DeepSeek V3.2 Exp:llä on yhteensä 671B parametreja ja 37B aktiivisia parametreja. Tämä on sama kuin kaikissa aiemmissa DeepSeek V3- ja R1-sarjojen malleissa
DeepSeekin ensimmäisen osapuolen API-hinnoittelulla, joka on $0.28/$0.42 per 1 miljoona syöttö/ulostulotokenia, V3.2 (Reasoning) sijoittuu Pareto-rajamailla tekoälyn tekoälyindeksin Intelligence vs. Cost to Run -kaaviossa
DeepSeek V3.2-Speciale on korkeimmalle sijoittunut avoimen painon malli Artificial Analysis Omniscience Indexissä, kun taas V3.2 (Päättely) vastaa Kimi K2 Thinkingin mallia
DeepSeek V3.2 on päättelymoodissa sanavalmiampi kuin edeltäjänsä, käyttäen enemmän output tokeneita Artificial Analysis Intelligence Indexin ajamiseen (86M vs. 62M).
Vertaa, miten DeepSeek V3.2 toimii verrattuna malleihin, joita käytät tai harkitset seuraavissa paikoissa:
66,93K