Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Zaczynamy: Mistral 3 wprowadza pełną rodzinę modeli open-source nowej generacji na licencji Apache 2.0!
Trzy małe gęste modele „Ministral” (3B, 8B, 14B) oraz Mistral Large 3, model MoE na poziomie frontier z 41B aktywnymi / 675B całkowitymi parametrami, wytrenowany na 3000 H200 i wydany na licencji Apache 2.0. Large 3 osiąga stan techniki wśród modeli instrukcyjnych z otwartą wagą, dodaje możliwości multimodalne i wielojęzyczne oraz jest zoptymalizowany z NVIDIA (TensorRT-LLM, SGLang, jądra Blackwell) do efektywnego wdrażania od laptopów po klastry GB200.
Modele Ministral oferują najlepszy w swojej klasie stosunek kosztów do wydajności, multimodalność i nowe warianty rozumowania — co czyni to jednym z najsilniejszych w pełni otwartych wydań AI do tej pory.
Tak, nie mogą konkurować z Gemin 3, Opus 4.5 czy GPT-5 high, ale są świetną otwartą alternatywą, szczególnie w porównaniu do chińskich modeli, i stanowią dużą przewagę dla Europy.

Najlepsze
Ranking
Ulubione

