Nu kör vi: Mistral 3 introducerar en fullständig nästa generations open source-familj under Apache 2.0-licens! Tre små täta "Ministral"-modeller (3B, 8B, 14B) plus Mistral Large 3, en frontlinjenivå gles MoE med 41B aktiva / 675B totala parametrar, tränade på 3000 H200 och släppta under Apache 2.0. Large 3 är toppmodern bland öppna vikt-instruktionsmodeller, lägger till multimodala + flerspråkiga funktioner och är optimerad med NVIDIA (TensorRT-LLM, SGLang, Blackwell-kärnor) för effektiv distribution från bärbara datorer till GB200-kluster. Ministral-modellerna levererar prisvärdhets-till-prestanda, multimodalitet och nya resonemangsvarianter – vilket gör detta till en av de starkaste helt öppna AI-versionerna hittills. Ja, de kan inte konkurrera med Gemin 3, Opus 4.5 eller GPT-5 High, men de är ett utmärkt öppet alternativ, särskilt jämfört med de kinesiska, och en stor fördel för Europa.