Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Незалежний аналіз моделей штучного інтелекту та хостинг-провайдерів - виберіть найкращу модель та API провайдера для вашого випадку використання
Mistral щойно представила свою нову модель з великими відкритими вагами Mistral Large 3 (всього 675B, активна 41B), а також набір із трьох моделей Ministral (3B, 8B, 14B)
Mistral випустила варіанти Instruct (без логіки) для всіх чотирьох моделей, а також реабілітні варіанти трьох моделей Ministral. Усі моделі підтримують мультимодальні входи і сьогодні доступні з ліцензією Apache 2.0 на @huggingface. Ми оцінили варіанти Mistral Large 3 та Instruct трьох моделей Ministral перед запуском.
Модель Mistral з найвищим балом у Artificial Analysis Intelligence Index залишається власною Magistral Medium 1.2, запущеною кілька місяців тому у вересні — це пов'язано з логікою, яка дає моделям значну перевагу у багатьох оцінюваннях, які ми використовуємо. Mistral повідомляє, що версія Mistral Large 3 вже перебуває у тренуванні, і ми з нетерпінням чекаємо можливості її оцінити найближчим часом!
Ключові моменти:
➤ Великі та малі моделі: з загальною кількістю 675B і активним 41B, Mistral Large 3 — це перша відкрита модель Mistral із сумішшю експертів з часів Mixtral 8x7B та 8x22B наприкінці 2023 — на початку 2024 року. Релізи Ministral насичені варіантами параметрів 3B, 8B і 14B
➤ Значне зростання інтелекту, але не серед провідних моделей (включно з пропрієтарними): Mistral Large 3 є значним покращенням порівняно з попереднім Mistral Large 2, з підвищенням індексу інтелекту на +11 пунктів до 38. Однак Large 3 все ще відстає від провідних моделей власного мислення та нелогічного мислення
➤ Універсальні малі моделі: моделі Ministral випускаються з варіантами Base, Instruct та Reasoning — ми протестували лише варіанти Instruct перед релізом, які отримали індекс 31 (14B), 28 (8B) і 22 (3B). Це ставить Ministral 14B попереду попереднього Mistral Small 3.2, маючи на 40% менше параметрів. Ми працюємо над оцінкою варіантів мислення і незабаром поділимося їхніми результатами інтелекту.
➤ Мультимодальні можливості: усі моделі у релізі підтримують текстові та зображені введення — це суттєва відмінність для Mistral Large 3, оскільки мало моделей з відкритими вагами в цьому класі розмірів підтримують введення зображень. Довжина контексту також збільшується до 256k, що дозволяє виконувати завдання з більшим введенням.
Ці нові моделі від Mistral не є кроком відмінності від змагань у відкритих вагах, але демонструють міцну базу продуктивності з можливостями зору. Варіанти Ministral 8B і 14B пропонують особливо захопливу продуктивність для свого розміру, і нам цікаво побачити, як спільнота використовує та розвиватиме ці моделі.
На момент запуску нові моделі доступні для безсерверного виведення на @MistralAI та низці інших провайдерів, включно з @awscloud Bedrock, @Azure AI Foundry, @IBMwatsonx, @FireworksAI_HQ, @togethercompute та @modal.

2,64K
FLUX.2 [pro] посідає #2 місце в рейтингу лідерів Artificial Analysis Text to Image, поступаючись лише Nano Banana Pro (Gemini 3.0 Pro Image) і коштуючи менше чверті ціни!
FLUX.2 — це сімейство моделей зображень від Black Forest Labs @bfl_ml, які випускаються у професійних, гнучких та розробницьких варіантах. Усі варіанти підтримують як редагування тексту в зображення, так і зображення.
FLUX.2 [pro] займає #2 місце в таблиці лідерів Text to Image і BFL позиціонує його як найкращий баланс швидкості генерації та якості. Ми спостерігаємо час генерації ~10 секунд за API Black Forest Labs, порівнянний із FLUX.1 Kontext [max] (10с) та Seedream 4.0 (12с). FLUX.2 [pro] коштує $30/1k зображень у розмірі 1MP, відповідає Seedream 4.0 і значно дешевший за Nano Banana Pro (Gemini 3.0 Pro Image) — $39/1k.
FLUX.2 [flex] займає #4 місце у форматі Text to Image, тестується на 50 кроках висновку з шкалою наведення 4.5. Цей варіант забезпечує найбільший контроль, з регульованою шкалою наведення та кроками виведення для максимальної якості. Модель коштує дорожче, ніж професійний варіант — $60/1k зображень у 1 МП незалежно від налаштувань, що робить її дорожчою за Nano Banana (Gemini 2.5 Flash Image) — $39/1 тис. доларів. Час генерації триває ~20 секунд на стандартних налаштуваннях, що є одним із найповільніших моделей дифузії у нашому бенчмаркінгу.
FLUX.2 [dev] займає #8 місце в таблиці лідерів Text to Image і є варіантом з відкритими вагами за ліцензією FLUX [dev] Non-Commercial. Модель з параметрами 32B збільшена порівняно з FLUX.1 [dev] 12B, розроблена для професійного обладнання з квантованими версіями fp8, доступними для споживчого використання.
Також планується FLUX.2 [klein], варіант дистильованого розміру під ліцензією Apache 2.0, який може замінити популярний FLUX.1 [schnell].
Дивіться тему 🧵 нижче для якості редагування зображень та поколінь прикладів!

2,82K
Найкращі
Рейтинг
Вибране

