Vamos lá: Mistral 3 apresenta uma família completa de código aberto de próxima geração sob licença Apache 2.0! Três pequenos modelos densos "Ministral" (3B, 8B, 14B) mais Mistral Large 3, um MoE esparso em nível de fronteira com 41B ativos / 675B parâmetros totais, treinados com 3000 H200s e lançados sob Apache 2.0. O Large 3 atinge o estado da arte entre modelos de instruções de peso aberto, adiciona capacidades multimodal + multilíngue e é otimizado com NVIDIA (kernels TensorRT-LLM, SGLang, Blackwell) para implantação eficiente de laptops em clusters GB200. Os modelos Ministral entregam os melhores custos-performance, multimodalidade e novas variantes de raciocínio — tornando este um dos lançamentos de IA totalmente abertos mais fortes até hoje. Sim, eles não conseguem competir com Gemin 3, Opus 4.5 ou GPT-5 alto, mas são uma ótima alternativa aberta, especialmente comparados aos chineses, e uma grande vantagem para a Europa.