Mennään: Mistral 3 esittelee täyden uuden sukupolven avoimen lähdekoodin perheen Apache 2.0 -lisenssillä! Kolme pientä tiheää "ministeriömallia" (3B, 8B, 14B) sekä Mistral Large 3, rajamailla oleva harva MoE, jossa on 41B aktiivinen / 675B kokonaisparametreja, koulutettu 3000 H200:lla ja julkaistu Apache 2.0 -mallilla. Large 3 on huippuluokkaa avoimen painoluokan käskymallien joukossa, lisää multimodaalisia + monikielisiä ominaisuuksia ja on optimoitu NVIDIA:n (TensorRT-LLM, SGLang, Blackwell ytimet) kanssa tehokkaaseen käyttöönottoon kannettavista GB200-klustereihin. Ministral-mallit tarjoavat luokkansa parhaat kustannus-suorituskyky-, multimodaalisuuden ja uudet järkeilyvariaatiot – tehden tästä yhden vahvimmista täysin avoimesta tekoälyjulkaisusta tähän mennessä. Kyllä, ne eivät pysty kilpailemaan Gemin 3:n, Opus 4.5:n tai GPT-5:n kanssa, mutta ne ovat erinomainen avoin vaihtoehto, erityisesti verrattuna kiinalaisiin, ja suuri etu Euroopalle.