Mistral vient de lancer son nouveau modèle à poids ouverts large, Mistral Large 3 (675B au total, 41B actifs), accompagné d'un ensemble de trois modèles Ministral (3B, 8B, 14B) Mistral a publié des variantes Instruct (non-raisonnement) de tous les quatre modèles, ainsi que des variantes de raisonnement des trois modèles Ministral. Tous les modèles prennent en charge les entrées multimodales et sont disponibles avec une licence Apache 2.0 dès aujourd'hui sur @huggingface. Nous avons évalué Mistral Large 3 et les variantes Instruct des trois modèles Ministral avant le lancement. Le modèle le mieux noté de Mistral dans l'Index d'Analyse de l'Intelligence Artificielle reste le Magistral Medium 1.2, lancé il y a quelques mois en septembre - cela est dû au raisonnement qui donne aux modèles un avantage significatif dans de nombreuses évaluations que nous utilisons. Mistral révèle qu'une version de raisonnement de Mistral Large 3 est déjà en cours d'entraînement et nous avons hâte de l'évaluer bientôt ! Points clés : ➤ Modèles grands et petits : avec 675B au total et 41B actifs, Mistral Large 3 est le premier modèle à poids ouverts mélange d'experts de Mistral depuis Mixtral 8x7B et 8x22B fin 2023 à début 2024. Les sorties Ministral sont denses avec des variantes de 3B, 8B et 14B paramètres. ➤ Augmentation significative de l'intelligence mais pas parmi les modèles leaders (y compris propriétaires) : Mistral Large 3 représente une mise à niveau significative par rapport au précédent Mistral Large 2 avec une augmentation de +11 points sur l'Index d'Intelligence jusqu'à 38. Cependant, le Large 3 reste derrière les modèles de raisonnement et non-raisonnement propriétaires leaders. ➤ Modèles petits polyvalents : les modèles Ministral sont publiés avec des poids de variantes Base, Instruct et Raisonnement - nous avons testé uniquement les variantes Instruct avant la sortie, qui ont obtenu des scores d'Index de 31 (14B), 28 (8B) et 22 (3B). Cela place le Ministral 14B devant le précédent Mistral Small 3.2 avec 40 % de paramètres en moins. Nous travaillons à évaluer les variantes de raisonnement et partagerons bientôt leurs résultats d'intelligence. ➤ Capacités multi-modales : tous les modèles de la sortie prennent en charge les entrées texte et image - c'est un différenciateur significatif pour Mistral Large 3, car peu de modèles à poids ouverts de sa classe de taille prennent en charge l'entrée d'image. La longueur de contexte augmente également à 256k, permettant des tâches d'entrée plus grandes. Ces nouveaux modèles de Mistral ne représentent pas un changement radical par rapport à la concurrence des poids ouverts, mais ils constituent une base de performance solide avec des capacités visuelles. Les variantes 8B et 14B de Ministral offrent des performances particulièrement convaincantes pour leur taille, et nous sommes impatients de voir comment la communauté utilise et construit sur ces modèles. Au lancement, les nouveaux modèles sont disponibles pour une inférence sans serveur sur @MistralAI et une gamme d'autres fournisseurs, y compris @awscloud Bedrock, @Azure AI Foundry, @IBMwatsonx, @FireworksAI_HQ, @togethercompute et @modal.
Mistral Large 3 est à la traîne par rapport à la frontière, mais il est notablement l'un des modèles multimodaux à poids ouverts les plus intelligents sans raisonnement. Les modèles récents de DeepSeek (v3.2) et Moonshot (Kimi K2) continuent de ne prendre en charge que l'entrée et la sortie de texte.
En raison de leur petite taille, les versions Ministral présentent un bon compromis entre intelligence et coût, réalisant les évaluations de l'Index à un coût nettement inférieur à celui des modèles comparables tels que les petits modèles de la famille Qwen3 - en particulier les variantes VL qui prennent en charge les entrées d'image comme les Ministral.
Les modèles Ministral sont particulièrement différenciés pour les tâches nécessitant des entrées d'image et un modèle non raisonneur. Les trois tailles représentent une amélioration significative par rapport à la famille Gemma 3 de Google (auparavant une option privilégiée pour les petits modèles multimodaux) et sont compétitifs avec les récentes sorties Qwen3 VL d'Alibaba.
Magistral Medium 1.2 reste le modèle principal de Mistral dans l'Indice d'Analyse de l'Intelligence Artificielle.
Pour une analyse plus approfondie de ces nouveaux modèles et des fournisseurs qui les accompagnent à mesure qu'ils émergent, consultez nos pages de modèles sur l'Analyse Artificielle : Mistral Large 3 : Ministral 14B : Ministral 8B :
9,81K