DeepSeek V3.2は#2で最も知能の高いオープンウェイトモデルであり、Grok 4やClaude Sonnet 4.5(Thinking)よりも上位にランクされています。これにより、DeepSeek Sparse Attentionを「実験的」状態から脱却させ、知能の実質的なブーストと組み合わせています @deepseek_ai V3.2は人工分析知能指数で66点を獲得しています。2025年9月にリリースされたDeepSeek V3.2-Exp(+9ポイント)よりも大幅な知能向上です。DeepSeekはメインAPIエンドポイントをV3.2に切り替えましたが、価格設定はV3.2-Expから変更されていません。これにより、100万個の入出力トークンあたり0.28ドル/0.42ドルの価格設定となり、キャッシュ入力トークンは90%オフとなっています。 2024年12月下旬にDeepSeek V3がリリースされてから~11ヶ月前以降、DeepSeekのV3アーキテクチャは合計671B、アクティブパラメータ37Bで、Artificial Analysis Intelligence Indexで32点から66点に上昇しました。 DeepSeekはまた、推論のみのバリアントで、機能は強化されながらトークン使用率が大幅に高いV3.2-Specialeもリリースしました。これは推論モデルでよくあるトレードオフであり、より高度な推論は一般的により高い知能スコアとより多くの出力トークンをもたらします。V3.2-SpecialeはDeepSeekのファーストパーティAPIを通じて12月15日まで利用可能です。 V3.2-Specialeは現在、Artificial Analysis Intelligence Index(59)でV3.2(Reasoning, 66)よりも低い評価を得ています。これは、DeepSeekのファーストパーティAPIがまだこのモデルのツール呼び出しをサポートしていないためです。もしV3.2-Specialeがツール呼び出しを有効にした状態でV3.2のtau2スコア(91%)に匹敵すると、知能指数で~68のスコアを獲得し、最も知能の高いオープンウェイトモデルとなります。V3.2-Specialeは1億6,000万の出力トークンを使って人工分析知能指数(Artificial Analysis Intelligence Index)を実行し、これは推論モードで使用されたV3.2のほぼ2倍のトークン数です。 DeepSeek V3.2は、V3.2-Expと同一のアーキテクチャを採用しており、V3.2-Expは長いコンテキスト推論に必要な計算量を減らすためにDeepSeek Sparse Attention(DSA)を導入しました。私たちのLong Context Reasoningベンチマークでは、DSA導入による知能へのコストがないことが示されました。DeepSeekはV3.2-Expのコスト優位性を反映し、ファーストパーティAPIの価格を100万の入出力トークンあたり$0.56/$1.68から$0.28/$0.42に引き下げ、それぞれ50%と75%の価格削減を実現しました。 主なベンチマークポイント: † 🧠 DeepSeek V3.2:推論モードでは、DeepSeek V3.2は人工分析知能指数で66点を獲得し、Kimi K2 Thinking(67)に匹敵し、Grok 4(65)、Grok 4.1 Fast(推論、64)、Claude Sonnet 4.5(Thinking、63)を上回っています。ツール使用、長い文脈推論、コーディングにおいて、V3.2-Exp(57)と比較して顕著な向上を示しています。 † 🧠 DeepSeek V3.2-Speciale:V3.2-Specialeは、当社の知能指数の10ベンチマーク中7項目でV3.2(推理)より高いスコアを獲得しています。V3.2-Specialeは現在、AIME25(97%)とLiveCodeBench(90%)で全モデル中最高と2位のスコアを保持しています。しかし、前述の通り、DeepSeekのファーストパーティAPIはV3.2-Speciale版でツール呼び出しをサポートしておらず、tau2ベンチマークでスコアは0となっています。 † 📚 幻覚と知識:DeepSeek V3.2-SpecialeおよびV3.2は、Artificial Analysis Omniscience Indexで最も高く評価されているオープンウェイトモデルで、それぞれ-19と-23のスコアを獲得しています。Google、Anthropic、OpenAI、xAIの独自のモデルが通常この指数をリードしています。 † ⚡ 非推論性能:非推論モードでは、DeepSeek V3.2は人工分析知能指数で52点(V3.2-Expに対して+6点)を獲得し、#3で最も知能の高い非推論モデルです。DeepSeek V3.2(非推論)は、2025年5月のフロンティア推論モデルであるDeepSeek R1 0528の知能に匹敵し、今年の事前訓練と強化学習の改善によって急速に知能向上が見られたことを示しています。 † ⚙️ トークン効率:推論モードでは、DeepSeek V3.2はArtificial Analysis Intelligence Index(Artificial Analysis Intelligence Index)を実行するためにV3.2-Expよりも多くのトークンを使用しました(62Mから86Mに)。トークンの使用は、推論以外のバリアントでも似たままです。V3.2-Specialeは、Kimi K2 Thinking(1億4,000万)やGrok 4(1億2,000万)を上回る約16,000万の出力トークンを使用し、著しく高いトークン使用率を示しています 価格💲設定:DeepSeekはファーストパーティのトークンごとの価格設定を更新しておらず、3つのバリアントはすべて100万トークンあたり$0.28/$0.42で入手可能です その他のモデル詳細: † ©️ ライセンス:DeepSeek V3.2はMITライセンスの下で利用可能です † 🌐 利用可能性:DeepSeek V3.2はDeepSeek APIを通じて利用可能で、DeepSeek V3.2-Expに代わるものです。ユーザーは12月15日まで一時的なDeepSeek APIを通じてDeepSeek V3.2-Specialeにアクセスできます。このリリースによる知能向上を踏まえ、近いうちに複数のサードパーティプロバイダーがこのモデルを提供すると予想しています。 † 📏 サイズ:DeepSeek V3.2 Expは合計671Bのパラメータと37Bのアクティブパラメータを持っています。これはDeepSeek V3およびR1シリーズの過去モデルと同じです
DeepSeekのファーストパーティAPI価格設定である100万の入出力トークンあたり$0.28/$0.42では、V3.2(推論)は人工分析知能指数の知能対実行コストのパレート境界線上に位置しています
DeepSeek V3.2-SpecialeはArtificial Analysis Omniscience Indexで最高ランクのオープンウェイトモデルであり、V3.2(推論)はKimi K2 Thinkingに匹敵します
DeepSeek V3.2は推論モードで前モデルよりも冗長で、より多くの出力トークンを使って人工分析知能指数(86M対62M)を実行に使います。
DeepSeek V3.2の性能を、あなたが使用または検討しているモデルと比較してください:
67.07K