Ayo pergi: Mistral 3 memperkenalkan keluarga open-source generasi berikutnya penuh di bawah lisensi apache 2.0! Tiga model "Ministral" kecil yang padat (3B, 8B, 14B) ditambah Mistral Large 3, MoE jarang tingkat perbatasan dengan parameter aktif 41B / total 675B, dilatih pada 3000 H200 dan dirilis di bawah Apache 2.0. 3 hit besar canggih di antara model instruksi bobot terbuka, menambahkan kemampuan multimodal + multibahasa, dan dioptimalkan dengan kernel NVIDIA (kernel TensorRT-LLM, SGLang, Blackwell) untuk penerapan yang efisien dari laptop ke kluster GB200. Model Ministral menghadirkan varian biaya-ke-kinerja, multimodalitas, dan penalaran baru terbaik di kelasnya—menjadikannya salah satu rilis AI terbuka penuh terkuat hingga saat ini. Ya, mereka tidak dapat bersaing dengan Gemin 3, Opus 4.5 atau GPT-5 tinggi, tetapi mereka adalah alternatif terbuka yang bagus, terutama dibandingkan dengan yang Cina, dan keuntungan besar bagi Eropa.