Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Analyse indépendante des modèles d’IA et des fournisseurs d’hébergement - choisissez le meilleur modèle et le meilleur fournisseur d’API pour votre cas d’utilisation
Alibaba a lancé Qwen3 Next 80B : un modèle hybride de raisonnement à poids ouverts qui atteint une intelligence de niveau DeepSeek V3.1 avec seulement 3B de paramètres actifs
Points clés :
💡 Architecture novatrice : Premier modèle à introduire les modèles de base ‘Qwen3-Next’ d'@Alibaba_Qwen, avec plusieurs décisions architecturales clés telles qu'un mécanisme d'attention hybride de Gated DeltaNet et Gated Attention, et une forte sparsité avec une part de 3,8 % de paramètres actifs, contre 9,4 % pour Qwen3 235B
🧠 Intelligence : Qwen3 Next 80B (Raisonnement) obtient un score de 54 sur l'Indice d'Intelligence d'Analyse Artificielle, placé aux côtés de DeepSeek V3.1 (Raisonnement). La variante non raisonnement obtient un score de 45, en ligne avec gpt-oss-20B et Llama Nemotron Super 49B v1.5 (Raisonnement)
💲 Modèle de tarification : La tarification par token sur @alibaba_cloud est de 0,5 $/6 $ par 1M de tokens d'entrée/sortie pour le raisonnement et de 0,5 $/2 $ pour la variante non raisonnement. Cela se compare à des prix plus élevés pour Qwen3 235B 2507 de 0,7 $/8,4 $ avec raisonnement et de 0,7 $/2,8 $ sans - une réduction ≥25 % selon les charges de travail
⚙️ Détails du modèle : Le modèle a une fenêtre de contexte native de 256k tokens et est uniquement textuel, sans entrées ou sorties multimodales. Avec seulement 80B de paramètres en FP8, le modèle tient sur un seul GPU H200

100
Lancement de notre enquête sur l'état des médias génératifs 2025 soutenue par @fal ! Participez pour recevoir le rapport complet de l'enquête et gagner une paire de Meta Ray-Bans 🕶️
Nous menons cette enquête pour recueillir des informations sur l'état des médias génératifs en 2025. Cela inclut des perspectives sur la façon dont les organisations utilisent, choisissent et accèdent aux modèles d'image, de vidéo et de musique !
Pourquoi participer ?
✅ Recevez une copie gratuite du rapport d'enquête étendu (seule une version limitée sera disponible publiquement)
✅ Une chance de gagner une paire de lunettes Ray-Ban Meta AI 🕶️
✅ Contribuez à partager des informations sur les principales tendances qui façonnent les médias génératifs
Lien dans le fil ci-dessous ! ⬇️⬇️⬇️⬇️⬇️⬇️⬇️
161
DeepSeek lance V3.1, unifiant V3 et R1 en un modèle de raisonnement hybride avec une augmentation incrémentale de l'intelligence
Augmentation incrémentale de l'intelligence : Les premiers résultats de benchmarking pour DeepSeek V3.1 montrent un indice d'intelligence d'analyse artificielle de 60 en mode raisonnement, contre 59 pour le score de R1. En mode non-raisonnement, V3.1 atteint un score de 49, une augmentation plus importante par rapport au score précédent de V3 0324 qui était de 44. Cela laisse V3.1 (raisonnement) derrière le dernier Qwen3 235B 2507 d'Alibaba (raisonnement) - DeepSeek n'a pas repris la tête.
Raisonnement hybride : @deepseek_ai est passé à un modèle de raisonnement hybride pour la première fois - supportant à la fois les modes de raisonnement et de non-raisonnement. Le passage de DeepSeek à un modèle de raisonnement hybride unifié imite l'approche adoptée par OpenAI, Anthropic et Google. Il est intéressant de noter, cependant, qu'Alibaba a récemment abandonné l'approche hybride qu'il favorisait pour Qwen3 avec ses sorties séparées des modèles de raisonnement et d'instruction de Qwen3 2507.
Appel de fonction / utilisation d'outils : Bien que DeepSeek affirme avoir amélioré l'appel de fonction pour le modèle, DeepSeek V3.1 ne prend pas en charge l'appel de fonction en mode raisonnement. Cela risque de limiter considérablement sa capacité à soutenir des flux de travail agentiques avec des exigences d'intelligence, y compris dans les agents de codage.
Utilisation des tokens : DeepSeek V3.1 obtient des scores légèrement plus élevés en mode raisonnement que DeepSeek R1, et utilise légèrement moins de tokens dans les évaluations que nous utilisons pour l'indice d'intelligence d'analyse artificielle. En mode non-raisonnement, il utilise légèrement plus de tokens que V3 0324 - mais reste plusieurs fois inférieur à son propre mode raisonnement.
API : L'API de première partie de DeepSeek sert désormais le nouveau modèle DeepSeek V3.1 sur ses points de terminaison de chat et de raisonnement - il suffit de changer si le token de pensée finale </think> est fourni au modèle dans le modèle de chat pour contrôler si le modèle va raisonner.
Architecture : DeepSeek V3.1 est architecturale identique aux modèles précédents V3 et R1, avec 671B de paramètres totaux et 37B de paramètres actifs.
Implications : Nous conseillerions la prudence dans toute hypothèse concernant ce que cette sortie implique sur les progrès de DeepSeek vers un futur modèle désigné dans les rumeurs comme V4 ou R2. Nous notons que DeepSeek a précédemment publié le modèle final construit sur leur architecture V2 le 10 décembre 2024, juste deux semaines avant de publier V3.


443
Meilleurs
Classement
Favoris