DeepSeek V3.2, #2 en zeki açık ağırlık modeli ve ayrıca Grok 4 ile Claude Sonnet 4.5'in (Düşünme) önünde yer alıyor - DeepSeek Sparse Attention'ı 'deneysel' statüsünden çıkarıp bunu zekaya maddi bir artışla birleştiriyor @deepseek_ai V3.2, Yapay Analiz Zeka Endeksi'nde 66 puan aldı; Eylül 2025'te yayımlanan DeepSeek V3.2-Exp (+9 puan) üzerinde önemli bir zeka artışı. DeepSeek, ana API uç noktasını V3.2'ye taşıdı ve V3.2-Exp fiyatlandırmasından fiyat değişikliği olmadı - bu da fiyatlandırmayı sadece $0.28/$0.42 olarak 1M giriş/çıkış tokenı olarak gösteriyor ve önbelleklenmiş girdi tokenları için %90 indirim içeriyor. Orijinal DeepSeek V3 sürümünden ~11 ay önce, Aralık 2024 sonlarından beri, 671B toplam/37B aktif parametreye sahip DeepSeek'in V3 mimarisi, Yapay Analiz Zeka Endeksi'nde 32 puan alan modelden 66'ya yükseldi. DeepSeek ayrıca, geliştirilmiş yeteneklere ancak önemli ölçüde daha yüksek token kullanımına sahip, sadece mantık yürütme tabanlı bir varyant olan V3.2-Speciale'yi de piyasaya sürdü. Bu, daha gelişmiş akıl yürütme modellerinde yaygın bir ödün vericidir; burada daha gelişmiş akıl yürütme genellikle daha yüksek zeka puanları ve daha fazla çıktı tokenı sağlar. V3.2-Speciale, DeepSeek'in birinci taraf API'si üzerinden 15 Aralık'a kadar erişilebilir. V3.2-Speciale şu anda Yapay Analiz Zeka Endeksinde (59) V3.2'ye (Reasoning, 66) göre daha düşük puan alıyor çünkü DeepSeek'in birinci taraf API'si henüz bu modeli çağrılayan aracı desteklemiyor. Eğer V3.2-Speciale, araç çağrısı etkinleştirildiğinde V3.2'nin tau2 puanını (%91) eşleştirseydi, Zeka Endeksi'nde ~68 puan alırdı ve bu da onu en akıllı açık ağırlık modeli yapardı. V3.2-Speciale, Yapay Analiz Zeka Endeksi'ni çalıştırmak için 160M çıktı tokenı kullanır; bu, V3.2'nin mantık modunda kullandığı token sayısının neredeyse ~2 katıdır. DeepSeek V3.2, uzun bağlam çıkarımı için gereken hesaplamayı azaltmak amacıyla DeepSeek Sparse Attention (DSA) ile DeepSeek Sparse Attention (DSA) ile aynı mimariyi kullanır. Uzun Bağlam Akıl Yürütme kıytemasımız, DSA'nın tanıtılmasının zeka açısından hiçbir maliyeti olmadığını gösterdi. DeepSeek, V3.2-Exp'in maliyet avantajını yansıtarak birinci taraf API'sinin fiyatlarını 1 milyon giriş/çıkış token başına 0,56$/$1,68'den $0,28/$0,42'ye düşürdü - girdi ve çıktı tokenlarının fiyatlandırmasında sırasıyla %50 ve %75 azalma anlamına geliyordu. Temel kıyaslama çıkarımları: ➤ 🧠 DeepSeek V3.2: Akıl yürütme modunda, DeepSeek V3.2 Yapay Analiz Zeka İndeksi'nde 66 puan alır ve eşdeğer olarak Kimi K2 Thinking (67) ile birlikte Grok 4 (65), Grok 4.1 Fast (Reasoning, 64) ve Claude Sonnet 4.5 (Thinking, 63) önünde yer alır. V3.2-Exp (57) ile karşılaştırıldığında araç kullanımı, uzun bağlam akıl yürütme ve kodlama açısından kayda değer artışlar sergiliyor. ➤ 🧠 DeepSeek V3.2-Speciale: V3.2-Speciale, Zeka Endeksimizdeki 10 kıyaslamadan 7'sinde V3.2'den (Akıl yürütme) daha yüksek puan alıyor. V3.2-Speciale şu anda AIME25 (%97) ve LiveCodeBench (%90) için tüm modeller arasında en yüksek ve ikinci en yüksek puana sahiptir. Ancak yukarıda belirtildiği gibi, DeepSeek'in V3.2-Speciale için birinci parti API'si araç çağrısını desteklemiyor ve model tau2 benchmarkında 0 puan alıyor. ➤ 📚 Halüsinasyon ve Bilgi: DeepSeek V3.2-Speciale ve V3.2, Yapay Analiz Omniscience Endeksi'nde sırasıyla -19 ve -23 puan alan en yüksek sıralı açık ağırlık modelleridir. Google, Anthropic, OpenAI ve xAI'nin özel modelleri genellikle bu endeksin başında yer alır. ➤ ⚡ Akıl yürütme dışı performans: Akıl yürütme modunda, DeepSeek V3.2 Yapay Analiz Zeka İndeksi'nde 52 puan alır (+6 puan vs. V3.2-Exp) ve #3 en zeki akıl yürütmeyen model olarak yer alır. DeepSeek V3.2 (Akıl yürütmeme), Mayıs 2025'ten itibaren bir sınır akıl yürütme modeli olan DeepSeek R1 0528'in zekasıyla eşleşiyor ve bu yıl ön eğitim ve gerçek eğitim iyileştirmeleriyle elde edilen hızlı istihbarat kazanımlarını vurguluyor. ➤ ⚙️ Token verimliliği: Akıl yürütme modunda, DeepSeek V3.2, Yapay Analiz Zeka Endeksi'ni (62M'den 86M'ye) çalıştırmak için V3.2-Exp'ten daha fazla token kullandı. Token kullanımı, akıl yürütmeyen varyantlarda benzer kalır. V3.2-Speciale, Kimi K2 Thinking (140M) ve Grok 4 (120M) önünde ~160M çıkış jetonu kullanarak önemli ölçüde daha yüksek token kullanımı gösteriyor ➤💲Fiyatlandırma: DeepSeek, birinci parti tokenleri için token başına fiyatlandırmayı güncellemedi ve üç varyantın tamamı 1 milyon giriş/çıkış tokenı başına $0.28/$0.42 fiyatlarında mevcuttur Diğer model detayları: ➤ ©️ Lisanslama: DeepSeek V3.2, MIT Lisansı kapsamında mevcuttur ➤ 🌐 Erişilebilirlik: DeepSeek V3.2, DeepSeek V3.2-Exp'in yerini alan DeepSeek API üzerinden erişilebilir. Kullanıcılar, geçici bir DeepSeek API üzerinden DeepSeek V3.2-Speciale'ye 15 Aralık'a kadar erişebilirler. Bu açıklamadaki istihbarat artışı göz önüne alındığında, yakında birçok üçüncü taraf sağlayıcının bu modele hizmet vermesini bekliyoruz. ➤ 📏 Boyut: DeepSeek V3.2 Exp toplam 671B parametreye ve 37B aktif parametreye sahiptir. Bu, DeepSeek V3 ve R1 serisinin önceki tüm modelleriyle aynıdır
DeepSeek'in birinci taraf API fiyatlandırmasıyla $0.28/$0.42 1M giriş/çıkış tokenı için, V3.2 (Reasoning), Zeka ve Çalışma Maliyeti Yapay Analiz Zeka Endeksi grafiğinin Pareto sınırında yer alıyor
DeepSeek V3.2-Speciale, Yapay Analiz Her Şeyi Bilme Endeksi'nde en yüksek sıralı açık ağırlıklar modelidir; V3.2 (Akıl yürütme) ise Kimi K2 Thinking ile eşleşir
DeepSeek V3.2, akıl yürütme modunda selefinden daha fazla ayrıntılıdır ve Yapay Analiz Zeka Endeksi'ni çalıştırmak için daha fazla çıktı token kullanır (86M vs. 62M).
DeepSeek V3.2'nin kullandığınız veya düşündüğünüz modellere göre nasıl performans gösterdiğini şu adreslerde karşılaştırın:
66,88K