Los geht's: Mistral 3 führt eine vollständige nächste Generation von Open-Source-Modellen unter der Apache 2.0-Lizenz ein! Drei kleine dichte "Ministral"-Modelle (3B, 8B, 14B) plus Mistral Large 3, ein grenzwertiger sparsamer MoE mit 41B aktiven / 675B Gesamtparametern, trainiert auf 3000 H200s und veröffentlicht unter Apache 2.0. Large 3 erreicht den Stand der Technik unter den Open-Weight-Instruktionsmodellen, fügt multimodale + mehrsprachige Fähigkeiten hinzu und ist mit NVIDIA (TensorRT-LLM, SGLang, Blackwell-Kerne) für eine effiziente Bereitstellung von Laptops bis zu GB200-Clustern optimiert. Die Ministral-Modelle bieten ein erstklassiges Kosten-Leistungs-Verhältnis, Multimodalität und neue Denkvarianten – was dies zu einem der stärksten vollständig offenen KI-Releases bis heute macht. Ja, sie können nicht mit Gemin 3, Opus 4.5 oder GPT-5 hoch konkurrieren, aber sie sind eine großartige offene Alternative, insbesondere im Vergleich zu den chinesischen, und ein großer Vorteil für Europa.