Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Analisi indipendente dei modelli di intelligenza artificiale e dei provider di hosting: scegli il modello e il fornitore API migliori per il tuo caso d'uso
Alibaba ha rilasciato Qwen3 Next 80B: un modello ibrido di ragionamento a pesi aperti che raggiunge un'intelligenza a livello di DeepSeek V3.1 con solo 3B di parametri attivi
Punti chiave:
💡 Architettura innovativa: Primo modello a introdurre i modelli fondazione ‘Qwen3-Next’ di @Alibaba_Qwen, con diverse decisioni architettoniche chiave come un meccanismo di attenzione ibrido di Gated DeltaNet e Gated Attention, e alta scarsità con una quota di parametri attivi del 3,8%, rispetto al 9,4% per Qwen3 235B
🧠 Intelligenza: Qwen3 Next 80B (Ragionamento) ottiene 54 nell'Artificial Analysis Intelligence Index, posizionato accanto a DeepSeek V3.1 (Ragionamento). La variante non di ragionamento ottiene 45, in linea con gpt-oss-20B e Llama Nemotron Super 49B v1.5 (Ragionamento)
💲 Modello di pricing: Il prezzo per token su @alibaba_cloud è di $0.5/$6 per 1M di token di input/output per il ragionamento e $0.5/$2 per la variante non di ragionamento. Questo si confronta con prezzi più alti per Qwen3 235B 2507 di $0.7/$8.4 con ragionamento e $0.7/$2.8 senza - una riduzione ≥25% a seconda dei carichi di lavoro
⚙️ Dettagli del modello: Il modello ha una finestra di contesto nativa di 256k token ed è solo testo, senza input o output multimodali. Con solo 80B di parametri a FP8, il modello si adatta a una singola GPU H200

84
Lancio del nostro sondaggio State of Generative Media 2025 supportato da @fal! Partecipa per ricevere il rapporto completo del sondaggio e vincere un paio di Meta Ray-Ban 🕶️
Stiamo conducendo il sondaggio per raccogliere informazioni sullo stato dei Media Generativi nel 2025. Questo include prospettive su come le organizzazioni stanno utilizzando, scegliendo e accedendo a modelli di Immagine, Video e Musica!
Perché partecipare?
✅ Ricevi una copia gratuita del rapporto esteso del sondaggio (solo una versione limitata sarà disponibile pubblicamente)
✅ Una possibilità di vincere un paio di occhiali Ray-Ban Meta AI 🕶️
✅ Contribuisci a condividere informazioni sulle principali tendenze che stanno plasmando i Media Generativi
Link nel thread qui sotto! ⬇️⬇️⬇️⬇️⬇️⬇️⬇️
146
DeepSeek lancia V3.1, unificando V3 e R1 in un modello ibrido di ragionamento con un incremento incrementale dell'intelligenza
Incremento dell'intelligenza incrementale: I risultati iniziali di benchmarking per DeepSeek V3.1 mostrano un Indice di Intelligenza Analitica Artificiale di 60 in modalità ragionamento, in aumento rispetto al punteggio di 59 di R1. In modalità non ragionamento, V3.1 ottiene un punteggio di 49, un incremento maggiore rispetto al punteggio precedente di V3 0324 di 44. Questo lascia V3.1 (ragionamento) dietro l'ultimo Qwen3 235B 2507 di Alibaba (ragionamento) - DeepSeek non ha ripreso il comando.
Ragionamento ibrido: @deepseek_ai è passato per la prima volta a un modello di ragionamento ibrido - supportando sia modalità di ragionamento che non ragionamento. Il passaggio di DeepSeek a un modello di ragionamento ibrido unificato imita l'approccio adottato da OpenAI, Anthropic e Google. È interessante notare, tuttavia, che Alibaba ha recentemente abbandonato l'approccio ibrido che preferiva per Qwen3 con i loro rilasci separati dei modelli di ragionamento e istruzione di Qwen3 2507.
Chiamata di funzione / utilizzo di strumenti: Sebbene DeepSeek affermi di aver migliorato la chiamata di funzione per il modello, DeepSeek V3.1 non supporta la chiamata di funzione quando è in modalità ragionamento. Questo limiterà sostanzialmente la sua capacità di supportare flussi di lavoro agentici con requisiti di intelligenza, inclusi gli agenti di codifica.
Utilizzo dei token: DeepSeek V3.1 ottiene punteggi incrementali più alti in modalità ragionamento rispetto a DeepSeek R1 e utilizza leggermente meno token nei valutazioni che utilizziamo per l'Indice di Intelligenza Analitica Artificiale. In modalità non ragionamento, utilizza leggermente più token rispetto a V3 0324 - ma comunque diverse volte meno rispetto alla sua stessa modalità di ragionamento.
API: L'API di prima parte di DeepSeek ora serve il nuovo modello DeepSeek V3.1 sia sui loro endpoint di chat che di ragionamento - cambiando semplicemente se il token di pensiero finale </think> è fornito al modello nel template di chat per controllare se il modello ragionerà.
Architettura: DeepSeek V3.1 è architettonicamente identico ai precedenti modelli V3 e R1, con 671B di parametri totali e 37B di parametri attivi.
Implicazioni: Consiglieremmo cautela nel fare qualsiasi assunzione su ciò che questa release implica riguardo ai progressi di DeepSeek verso un futuro modello indicato nei rumors come V4 o R2. Notiamo che DeepSeek ha precedentemente rilasciato il modello finale costruito sulla loro architettura V2 il 10 dicembre 2024, solo due settimane prima di rilasciare V3.


435
Principali
Ranking
Preferiti