Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Unabhängige Analyse von KI-Modellen und Hosting-Providern - wählen Sie das beste Modell und den besten API-Anbieter für Ihren Anwendungsfall
Die Künstliche Analyse veranstaltet heute in Partnerschaft mit NVIDIA einen Workshop auf der NeurIPS!
Wir sprechen über unseren neuen Openness Index und was er für Forscher und Entwickler bedeutet.
Die Sitzung findet um 13 Uhr im Omni Hotel statt. Fühlen Sie sich frei, vorbeizukommen, wenn Sie auf der Konferenz sind!
1,28K
Mistral hat gerade ihr neues großes Open-Weights-Modell, Mistral Large 3 (675B insgesamt, 41B aktiv), zusammen mit einer Reihe von drei Ministral-Modellen (3B, 8B, 14B) auf den Markt gebracht.
Mistral hat Instruct (nicht schlussfolgernd) Varianten aller vier Modelle veröffentlicht, sowie schlussfolgernde Varianten der drei Ministral-Modelle. Alle Modelle unterstützen multimodale Eingaben und sind heute mit einer Apache 2.0-Lizenz auf @huggingface verfügbar. Wir haben Mistral Large 3 und die Instruct-Varianten der drei Ministral-Modelle vor der Markteinführung bewertet.
Mistrals bestbewertetes Modell im Artificial Analysis Intelligence Index bleibt das proprietäre Magistral Medium 1.2, das vor ein paar Monaten im September eingeführt wurde - dies liegt daran, dass schlussfolgerndes Denken den Modellen in vielen von uns verwendeten Bewertungen einen erheblichen Vorteil verschafft. Mistral gibt bekannt, dass eine schlussfolgernde Version von Mistral Large 3 bereits in der Ausbildung ist, und wir freuen uns darauf, sie bald zu bewerten!
Wichtige Highlights:
➤ Große und kleine Modelle: Mit 675B insgesamt und 41B aktiv ist Mistral Large 3 Mistrals erstes Open-Weights-Mixture-of-Experts-Modell seit Mixtral 8x7B und 8x22B von Ende 2023 bis Anfang 2024. Die Ministral-Veröffentlichungen sind dicht mit 3B, 8B und 14B Parameter-Varianten.
➤ Bedeutender Anstieg der Intelligenz, aber nicht unter den führenden Modellen (einschließlich proprietärer): Mistral Large 3 stellt ein bedeutendes Upgrade im Vergleich zum vorherigen Mistral Large 2 dar, mit einem Anstieg von +11 Punkten im Intelligence Index auf 38. Dennoch liegt Large 3 hinter den führenden proprietären schlussfolgernden und nicht schlussfolgernden Modellen zurück.
➤ Vielseitige kleine Modelle: Die Ministral-Modelle werden mit Basis-, Instruct- und Reasoning-Varianten veröffentlicht - wir haben vor der Veröffentlichung nur die Instruct-Varianten getestet, die Indexwerte von 31 (14B), 28 (8B) und 22 (3B) erreichten. Dies platziert Ministral 14B vor dem vorherigen Mistral Small 3.2 mit 40% weniger Parametern. Wir arbeiten daran, die schlussfolgernden Varianten zu bewerten und werden ihre Intelligenz-Ergebnisse bald teilen.
➤ Multi-modale Fähigkeiten: Alle Modelle in der Veröffentlichung unterstützen Text- und Bildeingaben - dies ist ein bedeutender Unterscheidungsfaktor für Mistral Large 3, da nur wenige Open-Weight-Modelle in seiner Größenklasse Unterstützung für Bildeingaben haben. Die Kontextlänge erhöht sich ebenfalls auf 256k, was größere Eingabearbeiten ermöglicht.
Diese neuen Modelle von Mistral sind kein Schrittwechsel im Wettbewerb der Open Weights, aber sie stellen eine starke Leistungsbasis mit Vision-Fähigkeiten dar. Die Varianten 8B und 14B von Ministral bieten besonders überzeugende Leistungen für ihre Größe, und wir sind gespannt, wie die Community diese Modelle nutzt und darauf aufbaut.
Bei der Markteinführung sind die neuen Modelle für serverlose Inferenz auf @MistralAI und einer Reihe anderer Anbieter einschließlich @awscloud Bedrock, @Azure AI Foundry, @IBMwatsonx, @FireworksAI_HQ, @togethercompute und @modal verfügbar.

4,56K
FLUX.2 [pro] belegt den 2. Platz in der Artificial Analysis Text to Image Rangliste und liegt nur hinter Nano Banana Pro (Gemini 3.0 Pro Image), während es weniger als ein Viertel des Preises kostet!
FLUX.2 ist eine Familie von Bildmodellen von Black Forest Labs @bfl_ml, die in den Varianten pro, flex und dev erhältlich sind. Alle Varianten unterstützen sowohl Text-zu-Bild als auch Bildbearbeitung.
FLUX.2 [pro] belegt den 2. Platz in der Text-zu-Bild Rangliste und wird von BFL als das beste Gleichgewicht zwischen Generierungsgeschwindigkeit und Qualität positioniert. Wir beobachten Generierungszeiten von ~10s über die API von Black Forest Labs, vergleichbar mit FLUX.1 Kontext [max] (10s) und Seedream 4.0 (12s). FLUX.2 [pro] kostet $30/1k 1MP Bilder, was mit Seedream 4.0 übereinstimmt und erheblich günstiger ist als Nano Banana Pro (Gemini 3.0 Pro Image) für $39/1k.
FLUX.2 [flex] belegt den 4. Platz in Text zu Bild, getestet mit 50 Inferenzschritten und 4.5 Guidance Scale. Diese Variante bietet die meiste Kontrolle, mit einstellbarem Guidance Scale und Inferenzschritten für maximale Qualität. Das Modell ist teurer als die Pro-Variante mit $60/1k 1MP Bildern, unabhängig von den Einstellungen, was es teurer macht als Nano Banana (Gemini 2.5 Flash Image) für $39/1k. Die Generierungszeiten liegen bei ~20s bei den Standardeinstellungen, was es zu einem der langsamsten Diffusionsmodelle in unserem Benchmarking macht.
FLUX.2 [dev] belegt den 8. Platz in der Text-zu-Bild Rangliste und ist die Variante mit offenen Gewichten unter der FLUX [dev] Non-Commercial Lizenz. Das 32B-Parameter-Modell ist von FLUX.1 [dev] mit 12B aufgestockt, entworfen für professionelle Hardware mit fp8 quantisierten Versionen, die für den Verbrauchereinsatz verfügbar sind.
FLUX.2 [klein] ist ebenfalls geplant, eine größenreduzierte Variante unter der Apache 2.0 Lizenz, die möglicherweise den beliebten FLUX.1 [schnell] nachfolgen wird.
Siehe den Thread 🧵 unten für die Bildbearbeitungsqualität und Beispielgenerierungen!

3,35K
Top
Ranking
Favoriten

