Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Nu kör vi: Mistral 3 introducerar en fullständig nästa generations open source-familj under Apache 2.0-licens!
Tre små täta "Ministral"-modeller (3B, 8B, 14B) plus Mistral Large 3, en frontlinjenivå gles MoE med 41B aktiva / 675B totala parametrar, tränade på 3000 H200 och släppta under Apache 2.0. Large 3 är toppmodern bland öppna vikt-instruktionsmodeller, lägger till multimodala + flerspråkiga funktioner och är optimerad med NVIDIA (TensorRT-LLM, SGLang, Blackwell-kärnor) för effektiv distribution från bärbara datorer till GB200-kluster.
Ministral-modellerna levererar prisvärdhets-till-prestanda, multimodalitet och nya resonemangsvarianter – vilket gör detta till en av de starkaste helt öppna AI-versionerna hittills.
Ja, de kan inte konkurrera med Gemin 3, Opus 4.5 eller GPT-5 High, men de är ett utmärkt öppet alternativ, särskilt jämfört med de kinesiska, och en stor fördel för Europa.

Topp
Rankning
Favoriter

