DeepSeek V3.2 to drugi najbardziej inteligentny model z otwartymi wagami i również wyprzedza Grok 4 oraz Claude Sonnet 4.5 (Myślenie) - wyprowadza DeepSeek Sparse Attention z statusu ‚eksperymentalnego’ i łączy go z istotnym wzrostem inteligencji @deepseek_ai V3.2 zdobywa 66 punktów w Indeksie Inteligencji Analizy Sztucznej; to znaczny wzrost inteligencji w porównaniu do DeepSeek V3.2-Exp (+9 punktów) wydanego we wrześniu 2025 roku. DeepSeek zmienił swój główny punkt końcowy API na V3.2, bez zmiany cen w porównaniu do cen V3.2-Exp - co ustawia ceny na zaledwie 0,28 USD/0,42 USD za 1M tokenów wejściowych/wyjściowych, z 90% zniżką na tokeny wejściowe w pamięci podręcznej. Od wydania oryginalnego DeepSeek V3 ~11 miesięcy temu, pod koniec grudnia 2024 roku, architektura V3 DeepSeek z 671B całkowitych/37B aktywnych parametrów przeszła z modelu zdobywającego 32 punkty do zdobywania 66 punktów w Indeksie Inteligencji Analizy Sztucznej. DeepSeek wydał również V3.2-Speciale, wariant tylko do rozumowania z ulepszonymi możliwościami, ale znacznie wyższym zużyciem tokenów. To powszechny kompromis w modelach rozumowania, gdzie bardziej zaawansowane rozumowanie zazwyczaj przynosi wyższe wyniki inteligencji i więcej tokenów wyjściowych. V3.2-Speciale jest dostępne za pośrednictwem API pierwszej strony DeepSeek do 15 grudnia. V3.2-Speciale obecnie zdobywa niższy wynik w Indeksie Inteligencji Analizy Sztucznej (59) niż V3.2 (Rozumowanie, 66), ponieważ API pierwszej strony DeepSeek jeszcze nie obsługuje wywoływania narzędzi dla tego modelu. Gdyby V3.2-Speciale osiągnęło wynik tau2 V3.2 (91%) z włączonym wywoływaniem narzędzi, zdobyłoby około 68 punktów w Indeksie Inteligencji, co czyniłoby go najbardziej inteligentnym modelem z otwartymi wagami. V3.2-Speciale używa 160M tokenów wyjściowych do uruchomienia Indeksu Inteligencji Analizy Sztucznej, prawie ~2x liczby tokenów używanych przez V3.2 w trybie rozumowania. DeepSeek V3.2 używa identycznej architektury jak V3.2-Exp, która wprowadziła DeepSeek Sparse Attention (DSA) w celu zmniejszenia obliczeń wymaganych do wnioskowania w długim kontekście. Nasz benchmark rozumowania w długim kontekście nie wykazał kosztów dla inteligencji związanych z wprowadzeniem DSA. DeepSeek odzwierciedlił tę przewagę kosztową V3.2-Exp, obniżając ceny w swoim API pierwszej strony z 0,56 USD/1,68 USD do 0,28 USD/0,42 USD za 1M tokenów wejściowych/wyjściowych - co stanowi redukcję cen o 50% i 75% odpowiednio dla tokenów wejściowych i wyjściowych. Kluczowe wnioski z benchmarków: ➤🧠 DeepSeek V3.2: W trybie rozumowania, DeepSeek V3.2 zdobywa 66 punktów w Indeksie Inteligencji Analizy Sztucznej i plasuje się równolegle do Kimi K2 Myślenie (67) oraz wyprzedza Grok 4 (65), Grok 4.1 Szybki (Rozumowanie, 64) i Claude Sonnet 4.5 (Myślenie, 63). Wykazuje znaczące wzrosty w porównaniu do V3.2-Exp (57) w zakresie użycia narzędzi, rozumowania w długim kontekście i kodowania. ➤🧠 DeepSeek V3.2-Speciale: V3.2-Speciale zdobywa wyższe wyniki niż V3.2 (Rozumowanie) w 7 z 10 benchmarków w naszym Indeksie Inteligencji. V3.2-Speciale obecnie ma najwyższe i drugie najwyższe wyniki wśród wszystkich modeli dla AIME25 (97%) i LiveCodeBench (90%) odpowiednio. Jednak, jak wspomniano powyżej, API pierwszej strony DeepSeek dla V3.2-Speciale nie obsługuje wywoływania narzędzi, a model zdobywa 0 punktów w benchmarku tau2. ➤📚 Halucynacje i Wiedza: DeepSeek V3.2-Speciale i V3.2 to najwyżej oceniane modele z otwartymi wagami w Indeksie Wszechwiedzy Analizy Sztucznej, zdobywając -19 i -23 odpowiednio. Modele własnościowe od Google, Anthropic, OpenAI i xAI zazwyczaj prowadzą ten indeks. ➤⚡ Wydajność nie-rozumienia: W trybie nie-rozumienia, DeepSeek V3.2 zdobywa 52 punkty w Indeksie Inteligencji Analizy Sztucznej (+6 punktów w porównaniu do V3.2-Exp) i jest trzecim najbardziej inteligentnym modelem nie-rozumienia. DeepSeek V3.2 (Nie-rozumienie) dorównuje inteligencji DeepSeek R1 0528, modelowi rozumowania z maja 2025 roku, podkreślając szybkie zyski w inteligencji osiągnięte dzięki wstępnemu szkoleniu i poprawom RL w tym roku. ➤⚙️ Wydajność tokenów: W trybie rozumowania, DeepSeek V3.2 używało więcej tokenów niż V3.2-Exp do uruchomienia Indeksu Inteligencji Analizy Sztucznej (z 62M do 86M). Zużycie tokenów pozostaje podobne w wariancie nie-rozumienia. V3.2-Speciale wykazuje znacznie wyższe zużycie tokenów, używając ~160M tokenów wyjściowych, wyprzedzając Kimi K2 Myślenie (140M) i Grok 4 (120M) ➤💲Ceny: DeepSeek nie zaktualizował cen za token dla swojego API pierwszej strony, a wszystkie trzy warianty są dostępne w cenie 0,28 USD/0,42 USD za 1M tokenów wejściowych/wyjściowych Inne szczegóły modelu: ➤ ©️ Licencjonowanie: DeepSeek V3.2 jest dostępny na licencji MIT ➤ 🌐 Dostępność: DeepSeek V3.2 jest dostępny za pośrednictwem API DeepSeek, które zastąpiło DeepSeek V3.2-Exp. Użytkownicy mogą uzyskać dostęp do DeepSeek V3.2-Speciale za pośrednictwem tymczasowego API DeepSeek do 15 grudnia. Biorąc pod uwagę wzrost inteligencji w tej wersji, spodziewamy się, że wiele dostawców zewnętrznych wkrótce udostępni ten model. ➤ 📏 Rozmiar: DeepSeek V3.2 Exp ma 671B całkowitych parametrów i 37B aktywnych parametrów. To samo co wszystkie wcześniejsze modele w serii DeepSeek V3 i R1.
Przy cenach API pierwszej strony DeepSeek wynoszących 0,28 USD/0,42 USD za 1M tokenów wejściowych/wyjściowych, V3.2 (Rozumowanie) znajduje się na granicy Pareto wykresu Indeksu Inteligencji w stosunku do kosztów uruchomienia sztucznej inteligencji analitycznej.
DeepSeek V3.2-Speciale jest najwyżej ocenianym modelem otwartych wag w Indeksie Omniscience Analizy Sztucznej, podczas gdy V3.2 (Rozumowanie) dorównuje myśleniu Kimi K2.
DeepSeek V3.2 jest bardziej szczegółowy niż jego poprzednik w trybie rozumowania, używając więcej tokenów wyjściowych do uruchomienia Indeksu Sztucznej Analizy Inteligencji (86M vs. 62M).
Porównaj, jak DeepSeek V3.2 wypada w porównaniu do modeli, które używasz lub rozważasz na:
66,92K