Mistral har precis lanserat sin nya stora öppna viktmodell, Mistral Large 3 (totalt 675B, 41B aktiv), tillsammans med ett set av tre Ministral-modeller (3B, 8B, 14B) Mistral har släppt Instruct (icke-resonerande) varianter av alla fyra modeller, samt resonerande varianter av de tre Ministral-modellerna. Alla modeller stödjer multimodala ingångar och finns tillgängliga med en Apache 2.0-licens idag på @huggingface. Vi utvärderade Mistral Large 3 och Instruct-varianterna av de tre Ministral-modellerna före lansering. Mistrals modell med högst poäng i Artificial Analysis Intelligence Index är fortfarande den proprietära Magistral Medium 1.2, som lanserades för ett par månader sedan i september – detta beror på att resonemanget ger modellerna en betydande fördel i många utvärderingar vi använder. Mistral avslöjar att en resonerande version av Mistral Large 3 redan är under träning och vi ser fram emot att utvärdera den snart! Viktiga höjdpunkter: ➤ Stora och små modeller: med totalt 675B och 41B aktiva är Mistral Large 3 Mistrals första öppna viktmodell med experter sedan Mixtral 8x7B och 8x22B i slutet av 2023 till början av 2024. Ministral-utgåvorna är täta med varianter av 3B, 8B och 14B parametervarianter ➤ Betydande intelligensökning men inte bland ledande modeller (inklusive proprietära): Mistral Large 3 representerar en betydande uppgradering jämfört med föregående Mistral Large 2 med en +11 poängs ökning på intelligensindexet upp till 38. Dock ligger Large 3 fortfarande efter ledande modeller för proprietärt resonemang och icke-resonerande ➤ Mångsidiga små modeller: Ministral-modellerna släpps med Base-, Instruct- och Reasoning-variantvikterna – vi testade endast Instruct-varianterna innan lansering, som uppnådde indexpoäng på 31 (14B), 28 (8B) och 22 (3B). Detta placerar Ministral 14B före den tidigare Mistral Small 3.2 med 40 % färre parametrar. Vi arbetar med att utvärdera resonemangsvarianterna och kommer snart att dela deras intelligensresultat. ➤ Multimodala funktioner: alla modeller i utgåvan stödjer text- och bildinmatningar – detta är en betydande skillnad för Mistral Large 3, eftersom få öppna viktmodeller i dess storleksklass har stöd för bildinmatning. Kontextlängden ökar också till 256k, vilket möjliggör större inmatningsuppgifter. Dessa nya modeller från Mistral är inte ett stort steg framåt från tävlingen i öppna vikter, men de representerar en stark prestandabas med visionsförmåga. Ministral 8B och 14B erbjuder särskilt övertygande prestanda för sin storlek, och vi är glada att se hur communityn använder och bygger vidare på dessa modeller. Vid lanseringen finns de nya modellerna tillgängliga för serverlös inferens, på @MistralAI och en rad andra leverantörer, inklusive @awscloud Bedrock, @Azure AI Foundry, @IBMwatsonx, @FireworksAI_HQ, @togethercompute och @modal.
Mistral Large 3 ligger i spets, men är märkbart en av de mest intelligenta multimodala icke-resonerande modellerna med öppna vikter. Nyligen modeller från DeepSeek (v3.2) och Moonshot (Kimi K2) stöder fortfarande endast textinmatning och -utmatning.
På grund av deras lilla storlek visar Ministral-utgåvorna en solid avvägning mellan intelligens och kostnad, där de genomför Index-utvärderingarna till en betydligt lägre kostnad än jämförbara modeller som små modeller från Qwen3-familjen – särskilt VL-varianterna som stödjer bildingångar som Ministral.
Ministralmodellerna är särskilt differentierade för uppgifter som kräver bildinmatning och en icke-resonerande modell. Alla tre storlekarna är en betydande uppgradering från Googles Gemma 3-familj (tidigare ett standardalternativ för små multimodala modeller) och konkurrerar med Alibabas senaste Qwen3 VL-lanseringar.
Magistral Medium 1.2 är fortfarande Mistrals övergripande ledande modell inom Artificial Analysis Inteligence Index.
För vidare analys av dessa nya modeller och leverantörer av dem när de uppstår, se våra modellsidor om artificiell analys: Mistral Large 3: Ministral 14B: Ministral 8B:
14,73K