Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Hãy cùng đi nào: Mistral 3 giới thiệu một gia đình mã nguồn mở thế hệ tiếp theo hoàn chỉnh dưới giấy phép apache 2.0!
Ba mô hình “Ministral” nhỏ gọn (3B, 8B, 14B) cộng với Mistral Large 3, một mô hình MoE thưa thớt cấp độ tiên phong với 41B tham số hoạt động / 675B tổng tham số, được đào tạo trên 3000 H200s và phát hành dưới Apache 2.0. Large 3 đạt tiêu chuẩn hàng đầu trong số các mô hình hướng dẫn có trọng số mở, bổ sung khả năng đa phương thức + đa ngôn ngữ, và được tối ưu hóa với NVIDIA (TensorRT-LLM, SGLang, Blackwell kernels) để triển khai hiệu quả từ laptop đến cụm GB200.
Các mô hình Ministral cung cấp hiệu suất chi phí tốt nhất trong lớp, đa phương thức, và các biến thể lý luận mới—biến đây thành một trong những phát hành AI hoàn toàn mở mạnh mẽ nhất cho đến nay.
Vâng, chúng không thể cạnh tranh với Gemin 3, Opus 4.5 hoặc GPT-5 cao, nhưng chúng là một lựa chọn mở tuyệt vời, đặc biệt là so với các mô hình Trung Quốc, và là một lợi thế lớn cho châu Âu.

Hàng đầu
Thứ hạng
Yêu thích

