Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
DeepSeek V3.2 è il modello open weights più intelligente al #2 e si posiziona anche davanti a Grok 4 e Claude Sonnet 4.5 (Thinking) - porta DeepSeek Sparse Attention fuori dallo stato ‘sperimentale’ e lo abbina a un notevole aumento dell'intelligenza.
@deepseek_ai V3.2 ottiene un punteggio di 66 sull'Artificial Analysis Intelligence Index; un sostanziale aumento dell'intelligenza rispetto a DeepSeek V3.2-Exp (+9 punti) rilasciato a settembre 2025. DeepSeek ha cambiato il suo endpoint API principale a V3.2, senza alcuna modifica dei prezzi rispetto ai prezzi di V3.2-Exp - questo porta i prezzi a soli $0.28/$0.42 per 1M di token di input/output, con il 90% di sconto per i token di input memorizzati.
Dalla release originale di DeepSeek V3 ~11 mesi fa, alla fine di dicembre 2024, l'architettura V3 di DeepSeek con 671B di parametri totali/37B di parametri attivi ha visto un passaggio da un modello che otteneva un punteggio di 32 a uno che ottiene un punteggio di 66 nell'Artificial Analysis Intelligence Index.
DeepSeek ha anche rilasciato V3.2-Speciale, una variante solo per ragionamento con capacità migliorate ma un utilizzo di token significativamente più elevato. Questo è un compromesso comune nei modelli di ragionamento, dove un ragionamento più avanzato genera generalmente punteggi di intelligenza più elevati e più token di output. V3.2-Speciale è disponibile tramite l'API di prima parte di DeepSeek fino al 15 dicembre.
Attualmente, V3.2-Speciale ottiene un punteggio inferiore sull'Artificial Analysis Intelligence Index (59) rispetto a V3.2 (Ragionamento, 66) perché l'API di prima parte di DeepSeek non supporta ancora la chiamata agli strumenti per questo modello. Se V3.2-Speciale raggiungesse il punteggio tau2 di V3.2 (91%) con la chiamata agli strumenti abilitata, otterrebbe un punteggio di ~68 sull'Intelligence Index, rendendolo il modello open-weights più intelligente. V3.2-Speciale utilizza 160M di token di output per eseguire l'Artificial Analysis Intelligence Index, quasi ~2 volte il numero di token utilizzati da V3.2 in modalità ragionamento.
DeepSeek V3.2 utilizza un'architettura identica a V3.2-Exp, che ha introdotto DeepSeek Sparse Attention (DSA) per ridurre il calcolo necessario per l'inferenza su contesti lunghi. Il nostro benchmark di Long Context Reasoning non ha mostrato alcun costo per l'intelligenza dell'introduzione di DSA. DeepSeek ha riflesso questo vantaggio di costo di V3.2-Exp riducendo i prezzi sulla loro API di prima parte da $0.56/$1.68 a $0.28/$0.42 per 1M di token di input/output - una riduzione del 50% e del 75% nei prezzi dei token di input e output rispettivamente.
Punti chiave dei benchmark:
➤🧠 DeepSeek V3.2: In modalità ragionamento, DeepSeek V3.2 ottiene un punteggio di 66 sull'Artificial Analysis Intelligence Index e si posiziona equivalentemente a Kimi K2 Thinking (67) e davanti a Grok 4 (65), Grok 4.1 Fast (Ragionamento, 64) e Claude Sonnet 4.5 (Thinking, 63). Dimostra notevoli aumenti rispetto a V3.2-Exp (57) in termini di utilizzo degli strumenti, ragionamento su contesti lunghi e codifica.
➤🧠 DeepSeek V3.2-Speciale: V3.2-Speciale ottiene punteggi più alti rispetto a V3.2 (Ragionamento) in 7 dei 10 benchmark nel nostro Intelligence Index. V3.2-Speciale detiene ora i punteggi più alti e il secondo punteggio più alto tra tutti i modelli per AIME25 (97%) e LiveCodeBench (90%) rispettivamente. Tuttavia, come menzionato sopra, l'API di prima parte di DeepSeek per V3.2-Speciale non supporta la chiamata agli strumenti e il modello ottiene un punteggio di 0 nel benchmark tau2.
➤📚 Allucinazione e Conoscenza: DeepSeek V3.2-Speciale e V3.2 sono i modelli open weights più alti classificati sull'Artificial Analysis Omniscience Index con punteggi di -19 e -23 rispettivamente. I modelli proprietari di Google, Anthropic, OpenAI e xAI tendono a guidare questo indice.
➤⚡ Prestazioni non di ragionamento: In modalità non di ragionamento, DeepSeek V3.2 ottiene un punteggio di 52 sull'Artificial Analysis Intelligence Index (+6 punti rispetto a V3.2-Exp) ed è il #3 modello non di ragionamento più intelligente. DeepSeek V3.2 (Non-ragionamento) corrisponde all'intelligenza di DeepSeek R1 0528, un modello di ragionamento di frontiera di maggio 2025, evidenziando i rapidi guadagni di intelligenza ottenuti attraverso il pre-addestramento e i miglioramenti di RL quest'anno.
➤⚙️ Efficienza dei token: In modalità ragionamento, DeepSeek V3.2 ha utilizzato più token rispetto a V3.2-Exp per eseguire l'Artificial Analysis Intelligence Index (da 62M a 86M). L'uso dei token rimane simile nella variante non di ragionamento. V3.2-Speciale dimostra un utilizzo di token significativamente più elevato, utilizzando ~160M di token di output rispetto a Kimi K2 Thinking (140M) e Grok 4 (120M).
➤💲Prezzi: DeepSeek non ha aggiornato i prezzi per token per la loro prima parte e tutte e tre le varianti sono disponibili a $0.28/$0.42 per 1M di token di input/output.
Altri dettagli sul modello:
➤ ©️ Licenza: DeepSeek V3.2 è disponibile sotto la Licenza MIT.
➤ 🌐 Disponibilità: DeepSeek V3.2 è disponibile tramite l'API di DeepSeek, che ha sostituito DeepSeek V3.2-Exp. Gli utenti possono accedere a DeepSeek V3.2-Speciale tramite un'API temporanea di DeepSeek fino al 15 dicembre. Data l'aumento dell'intelligenza in questo rilascio, ci aspettiamo che un certo numero di fornitori di terze parti serva questo modello a breve.
➤ 📏 Dimensione: DeepSeek V3.2 Exp ha 671B di parametri totali e 37B di parametri attivi. Questo è lo stesso di tutti i modelli precedenti nella serie DeepSeek V3 e R1.

Con il prezzo dell'API di prima parte di DeepSeek di $0.28/$0.42 per 1M di token in ingresso/uscita, V3.2 (Reasoning) si colloca sulla frontiera di Pareto del grafico Indice di Intelligenza vs. Costo per Eseguire Analisi Intelligente.

DeepSeek V3.2-Speciale è il modello a pesi aperti con il punteggio più alto nell'Artificial Analysis Omniscience Index, mentre V3.2 (Ragionamento) corrisponde al Kimi K2 Thinking

DeepSeek V3.2 è più verboso del suo predecessore in modalità di ragionamento, utilizzando più token di output per eseguire l'Artificial Analysis Intelligence Index (86M vs. 62M).

Confronta come DeepSeek V3.2 si comporta rispetto ai modelli che stai utilizzando o considerando a:
67K
Principali
Ranking
Preferiti

