Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Phân tích độc lập các mô hình AI và nhà cung cấp dịch vụ lưu trữ - chọn mô hình và nhà cung cấp API tốt nhất cho trường hợp sử dụng của bạn
Artificial Analysis đang tổ chức một buổi hội thảo hợp tác với NVIDIA tại NeurIPS hôm nay!
Chúng tôi sẽ nói về Chỉ số Cởi mở mới của chúng tôi, và điều đó có ý nghĩa gì đối với các nhà nghiên cứu và nhà phát triển.
Buổi họp sẽ diễn ra lúc 1 giờ chiều tại Khách sạn Omni. Xin vui lòng đến tham dự nếu bạn có mặt tại hội nghị!
1,28K
Mistral vừa ra mắt mô hình trọng số mở lớn mới của họ, Mistral Large 3 (675B tổng, 41B hoạt động), cùng với một bộ ba mô hình Ministral (3B, 8B, 14B)
Mistral đã phát hành các biến thể Instruct (không lý luận) của cả bốn mô hình, cũng như các biến thể lý luận của ba mô hình Ministral. Tất cả các mô hình đều hỗ trợ đầu vào đa phương thức và hiện có sẵn với giấy phép Apache 2.0 trên @huggingface. Chúng tôi đã đánh giá Mistral Large 3 và các biến thể Instruct của ba mô hình Ministral trước khi ra mắt.
Mô hình có điểm số cao nhất của Mistral trong Chỉ số Phân tích Trí tuệ Nhân tạo vẫn là Magistral Medium 1.2 độc quyền, được ra mắt cách đây vài tháng vào tháng 9 - điều này là do lý luận mang lại cho các mô hình một lợi thế đáng kể trong nhiều đánh giá mà chúng tôi sử dụng. Mistral tiết lộ rằng một phiên bản lý luận của Mistral Large 3 đã đang trong quá trình đào tạo và chúng tôi mong chờ được đánh giá nó sớm!
Những điểm nổi bật chính:
➤ Mô hình lớn và nhỏ: với 675B tổng và 41B hoạt động, Mistral Large 3 là mô hình hỗn hợp chuyên gia trọng số mở đầu tiên của Mistral kể từ Mixtral 8x7B và 8x22B vào cuối năm 2023 đến đầu năm 2024. Các phiên bản Ministral có mật độ cao với các biến thể tham số 3B, 8B và 14B
➤ Tăng cường trí tuệ đáng kể nhưng không nằm trong số các mô hình hàng đầu (bao gồm cả độc quyền): Mistral Large 3 đại diện cho một nâng cấp đáng kể so với Mistral Large 2 trước đó với mức tăng 11 điểm trên Chỉ số Trí tuệ lên 38. Tuy nhiên, Large 3 vẫn tụt lại phía sau các mô hình lý luận và không lý luận độc quyền hàng đầu
➤ Mô hình nhỏ đa năng: các mô hình Ministral được phát hành với trọng số biến thể Base, Instruct và Reasoning - chúng tôi chỉ thử nghiệm các biến thể Instruct trước khi phát hành, đạt được điểm số Chỉ số là 31 (14B), 28 (8B) và 22 (3B). Điều này đặt Ministral 14B đứng trước Mistral Small 3.2 trước đó với 40% số tham số ít hơn. Chúng tôi đang làm việc để đánh giá các biến thể lý luận và sẽ chia sẻ kết quả trí tuệ của chúng sớm.
➤ Khả năng đa phương thức: tất cả các mô hình trong bản phát hành đều hỗ trợ đầu vào văn bản và hình ảnh - đây là một yếu tố phân biệt đáng kể cho Mistral Large 3, vì rất ít mô hình trọng số mở trong lớp kích thước của nó có hỗ trợ đầu vào hình ảnh. Độ dài ngữ cảnh cũng tăng lên 256k, cho phép các nhiệm vụ đầu vào lớn hơn.
Những mô hình mới này từ Mistral không phải là một bước thay đổi từ sự cạnh tranh trọng số mở, nhưng chúng đại diện cho một nền tảng hiệu suất mạnh mẽ với khả năng thị giác. Các biến thể 8B và 14B của Ministral cung cấp hiệu suất đặc biệt hấp dẫn cho kích thước của chúng, và chúng tôi rất hào hứng để xem cộng đồng sử dụng và phát triển trên những mô hình này như thế nào.
Tại thời điểm ra mắt, các mô hình mới có sẵn cho suy diễn không máy chủ trên @MistralAI và một loạt các nhà cung cấp khác bao gồm @awscloud Bedrock, @Azure AI Foundry, @IBMwatsonx, @FireworksAI_HQ, @togethercompute, và @modal.

6,63K
FLUX.2 [pro] xếp hạng #2 trong Bảng xếp hạng Phân tích Nhân tạo Chuyển đổi Văn bản thành Hình ảnh, chỉ đứng sau Nano Banana Pro (Hình ảnh Gemini 3.0 Pro) trong khi có giá thấp hơn một phần tư giá!
FLUX.2 là một gia đình các mô hình hình ảnh từ Black Forest Labs @bfl_ml, có các biến thể pro, flex và dev. Tất cả các biến thể đều hỗ trợ cả chuyển đổi văn bản thành hình ảnh và chỉnh sửa hình ảnh.
FLUX.2 [pro] đứng ở vị trí #2 trong Bảng xếp hạng Chuyển đổi Văn bản thành Hình ảnh và được BFL định vị là sự cân bằng tốt nhất giữa tốc độ tạo hình và chất lượng. Chúng tôi quan sát thời gian tạo hình khoảng ~10 giây từ API của Black Forest Labs, tương đương với FLUX.1 Kontext [max] (10 giây) và Seedream 4.0 (12 giây). FLUX.2 [pro] có giá $30/1k hình ảnh 1MP, ngang bằng với Seedream 4.0 và rẻ hơn nhiều so với Nano Banana Pro (Hình ảnh Gemini 3.0 Pro) với giá $39/1k.
FLUX.2 [flex] xếp hạng #4 trong Chuyển đổi Văn bản thành Hình ảnh, được thử nghiệm với 50 bước suy diễn và tỷ lệ hướng dẫn 4.5. Biến thể này cung cấp nhiều kiểm soát nhất, với tỷ lệ hướng dẫn và bước suy diễn có thể điều chỉnh để đạt chất lượng tối đa. Mô hình này có giá cao hơn biến thể pro với giá $60/1k hình ảnh 1MP bất kể cài đặt, khiến nó đắt hơn Nano Banana (Hình ảnh Gemini 2.5 Flash) với giá $39/1k. Thời gian tạo hình chạy khoảng ~20 giây ở cài đặt mặc định, là một trong những mô hình khuếch tán chậm nhất trong bảng điểm của chúng tôi.
FLUX.2 [dev] đứng ở vị trí #8 trong Bảng xếp hạng Chuyển đổi Văn bản thành Hình ảnh và là biến thể trọng số mở dưới giấy phép FLUX [dev] Không thương mại. Mô hình 32B tham số được nâng cấp từ 12B của FLUX.1 [dev], được thiết kế cho phần cứng chuyên nghiệp với các phiên bản fp8 được định lượng có sẵn cho người tiêu dùng.
FLUX.2 [klein] cũng đang được lên kế hoạch, một biến thể tinh chế kích thước dưới giấy phép Apache 2.0 có thể kế thừa FLUX.1 [schnell] phổ biến.
Xem chủ đề 🧵 bên dưới để biết chất lượng Chỉnh sửa Hình ảnh và các ví dụ về các thế hệ!

3,35K
Hàng đầu
Thứ hạng
Yêu thích

