Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Allons-y : Mistral 3 introduit une famille complète de modèles open-source de nouvelle génération sous licence Apache 2.0 !
Trois petits modèles denses "Ministral" (3B, 8B, 14B) plus Mistral Large 3, un MoE sparse de niveau frontière avec 41B actifs / 675B au total de paramètres, entraîné sur 3000 H200s et publié sous Apache 2.0. Large 3 atteint l'état de l'art parmi les modèles d'instruction à poids ouvert, ajoute des capacités multimodales + multilingues, et est optimisé avec NVIDIA (TensorRT-LLM, SGLang, noyaux Blackwell) pour un déploiement efficace, des ordinateurs portables aux clusters GB200.
Les modèles Ministral offrent un rapport coût-performance de premier ordre, une multimodalité et de nouvelles variantes de raisonnement, faisant de cette sortie l'une des plus fortes en matière d'IA entièrement ouverte à ce jour.
Oui, ils ne peuvent pas rivaliser avec Gemin 3, Opus 4.5 ou GPT-5 haut, mais ils constituent une excellente alternative ouverte, surtout par rapport aux modèles chinois, et un grand avantage pour l'Europe.

Meilleurs
Classement
Favoris

