Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ayo pergi: Mistral 3 memperkenalkan keluarga open-source generasi berikutnya penuh di bawah lisensi apache 2.0!
Tiga model "Ministral" kecil yang padat (3B, 8B, 14B) ditambah Mistral Large 3, MoE jarang tingkat perbatasan dengan parameter aktif 41B / total 675B, dilatih pada 3000 H200 dan dirilis di bawah Apache 2.0. 3 hit besar canggih di antara model instruksi bobot terbuka, menambahkan kemampuan multimodal + multibahasa, dan dioptimalkan dengan kernel NVIDIA (kernel TensorRT-LLM, SGLang, Blackwell) untuk penerapan yang efisien dari laptop ke kluster GB200.
Model Ministral menghadirkan varian biaya-ke-kinerja, multimodalitas, dan penalaran baru terbaik di kelasnya—menjadikannya salah satu rilis AI terbuka penuh terkuat hingga saat ini.
Ya, mereka tidak dapat bersaing dengan Gemin 3, Opus 4.5 atau GPT-5 tinggi, tetapi mereka adalah alternatif terbuka yang bagus, terutama dibandingkan dengan yang Cina, dan keuntungan besar bagi Eropa.

Teratas
Peringkat
Favorit

