Mistral har nettopp lansert sin nye store åpne vekt-modell, Mistral Large 3 (675B totalt, 41B aktive), sammen med et sett på tre Ministral-modeller (3B, 8B, 14B) Mistral har gitt ut Instruct (ikke-resonnerende) varianter av alle fire modellene, samt resonnementvarianter av de tre Ministral-modellene. Alle modeller støtter multimodale innganger og er tilgjengelige med Apache 2.0-lisens i dag på @huggingface. Vi evaluerte Mistral Large 3 og Instruct-variantene av de tre Ministral-modellene før lansering. Mistrals høyest scorende modell i Artificial Analysis Intelligence Index er fortsatt den proprietære Magistral Medium 1.2, lansert for et par måneder siden i september – dette skyldes at resonnement gir modellene en betydelig fordel i mange evalueringer vi bruker. Mistral opplyser at en resonnementversjon av Mistral Large 3 allerede er under opplæring, og vi ser frem til å evaluere den snart! Viktige høydepunkter: ➤ Store og små modeller: med totalt 675B og 41B aktive, er Mistral Large 3 Mistrals første åpne vekt blandingsmodell siden Mixtral 8x7B og 8x22B fra slutten av 2023 til tidlig 2024. Ministral-utgivelsene er tette med varianter av 3B, 8B og 14B parametere ➤ Betydelig intelligensøkning, men ikke blant ledende modeller (inkludert proprietære): Mistral Large 3 representerer en betydelig oppgradering sammenlignet med forrige Mistral Large 2 med en +11 poengs økning på intelligensindeksen opp til 38. Likevel ligger Large 3 fortsatt bak ledende proprietære resonnements- og ikke-resonnementmodeller ➤ Allsidige små modeller: Ministral-modellene utgis med Base-, Instruct- og Reasoning-variantvektene – vi testet kun Instruct-variantene før lansering, som oppnådde indekspoeng på 31 (14B), 28 (8B) og 22 (3B). Dette plasserer Ministral 14B foran den forrige Mistral Small 3.2 med 40 % færre parametere. Vi jobber med å evaluere resonnementvariantene og vil snart dele deres intelligensresultater. ➤ Multimodale muligheter: alle modeller i utgivelsen støtter tekst- og bildeinnganger – dette er en betydelig differensiv faktor for Mistral Large 3, da få åpne vektmodeller i denne størrelsesklassen har støtte for bildeinput. Kontekstlengden øker også til 256k, noe som muliggjør oppgaver med større inndata. Disse nye modellene fra Mistral er ikke et stort steg fra åpen vekt-konkurranse, men de representerer et sterkt prestasjonsgrunnlag med visjonsevner. Ministral 8B og 14B variantene tilbyr spesielt overbevisende ytelse for sin størrelse, og vi gleder oss til å se hvordan fellesskapet bruker og bygger videre på disse modellene. Ved lansering er de nye modellene tilgjengelige for serverløs inferens på @MistralAI og en rekke andre leverandører, inkludert @awscloud Bedrock, @Azure AI Foundry, @IBMwatsonx, @FireworksAI_HQ, @togethercompute og @modal.
Mistral Large 3 ligger på, men er spesielt en av de mest intelligente åpne vektene med multimodale ikke-resonnement. Nylige modeller fra DeepSeek (v3.2) og Moonshot (Kimi K2) støtter fortsatt kun tekstinn- og utdata.
På grunn av sin lille størrelse viser Ministral-utgivelsene en solid avveining mellom intelligens og kostnad, og fullfører Index-evalueringene til en betydelig lavere kostnad enn sammenlignbare modeller som små modeller fra Qwen3-familien – spesielt VL-variantene som støtter bildeinnganger som Ministral.
Ministral-modellene er spesielt differensiert for oppgaver som krever bildeinput og en ikke-resonnerende modell. Alle tre størrelsene er en betydelig oppgradering fra Googles Gemma 3-familie (tidligere et standardalternativ for små multimodale modeller) og konkurrerer med Alibabas nylige Qwen3 VL-utgivelser.
Magistral Medium 1.2 er fortsatt Mistrals ledende modell innen Artificial Analysis Inteligence Index.
For videre analyse av disse nye modellene og leverandører av dem etter hvert som de dukker opp, se våre modellsider om kunstig analyse: Mistral Large 3: Ministral 14B: Ministral 8B:
11,64K