Să începem: Mistral 3 introduce o familie completă open-source de generație următoare sub licență apache 2.0! Trei modele mici și dense "Ministral" (3B, 8B, 14B) plus Mistral Large 3, un MoE rar la nivel de frontieră cu 41B parametri activi / 675B totali, antrenate pe 3000 H200 și lansate sub Apache 2.0. Large 3 atinge cele mai moderne modele de instrucțiuni open-weight, adaugă capabilități multimodale + multilingve și este optimizat cu NVIDIA (kernel-uri TensorRT-LLM, SGLang, Blackwell) pentru o implementare eficientă de pe laptopuri pe clusterele GB200. Modelele Ministral oferă cele mai bune variante de raportare cost-performanță, multimodalitate și noi raționament—făcând din aceasta una dintre cele mai puternice versiuni AI complet deschise de până acum. Da, nu pot concura cu Gemin 3, Opus 4.5 sau GPT-5 high, dar sunt o alternativă deschisă excelentă, mai ales comparativ cu cele chinezești, și un mare avantaj pentru Europa.