Zaczynamy: Mistral 3 wprowadza pełną rodzinę modeli open-source nowej generacji na licencji Apache 2.0! Trzy małe gęste modele „Ministral” (3B, 8B, 14B) oraz Mistral Large 3, model MoE na poziomie frontier z 41B aktywnymi / 675B całkowitymi parametrami, wytrenowany na 3000 H200 i wydany na licencji Apache 2.0. Large 3 osiąga stan techniki wśród modeli instrukcyjnych z otwartą wagą, dodaje możliwości multimodalne i wielojęzyczne oraz jest zoptymalizowany z NVIDIA (TensorRT-LLM, SGLang, jądra Blackwell) do efektywnego wdrażania od laptopów po klastry GB200. Modele Ministral oferują najlepszy w swojej klasie stosunek kosztów do wydajności, multimodalność i nowe warianty rozumowania — co czyni to jednym z najsilniejszych w pełni otwartych wydań AI do tej pory. Tak, nie mogą konkurować z Gemin 3, Opus 4.5 czy GPT-5 high, ale są świetną otwartą alternatywą, szczególnie w porównaniu do chińskich modeli, i stanowią dużą przewagę dla Europy.