Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Oberoende analys av AI-modeller och hostingleverantörer - välj den bästa modellen och API-leverantören för ditt användningsfall
FLUX.2 [dev] är den nya ledande öppna viktmodellen för text till bild, och överträffar HunyuanImage 3.0, Qwen-Image och HiDream-I1-Dev inom artificiell analysbild!
@bfl_ml senaste utgåva tar förstaplatsen för öppen vikt text-till-bildgenerering, samtidigt som den rankas #2 i öppna viktar bildredigering, endast efter Alibabas Qwen Bildredigering 2509.
FLUX.2 [dev] släpps under FLUX [dev] Non-Commercial License med vikter tillgängliga på @huggingface. Kommersiella applikationer kräver en separat licens från Black Forest Labs.
Modellen finns tillgänglig via API på @fal, @replicate, @runware, Verda, @togethercompute, @Cloudflare och @DeepInfra.
Black Forest Labs har också tillkännagivit FLUX.2 [klein], som kommer att släppas under Apache 2.0-licensen, vilket gör det möjligt för utvecklare och företag att bygga kommersiella applikationer utan separata licenskrav från Black Forest Labs

12,05K
DeepSeek V3.2 är den #2 mest intelligenta modellen för öppna vikter och ligger även före Grok 4 och Claude Sonnet 4.5 (Tänkande) – den tar DeepSeek Sparse Attention från 'experimentell' status och kombinerar det med en materiell ökning av intelligensen
@deepseek_ai V3.2 får 66 poäng på Artificial Analysis Intelligence Index; en betydande intelligensökning jämfört med DeepSeek V3.2-Exp (+9 poäng) som släpptes i september 2025. DeepSeek har bytt sin huvudsakliga API-endpoint till V3.2, utan någon prisändring från V3.2-Exp-priset – detta sätter priset på endast 0,28 dollar/0,42 dollar per 1 miljon in-/ut-tokens, med 90 % rabatt för cachade inmatningstokens.
Sedan den ursprungliga DeepSeek V3-releasen för ~11 månader sedan i slutet av december 2024 har DeepSeeks V3-arkitektur med totalt 671 miljarder och 37 miljarder aktiva parametrar gått från en modell som ger 32 till att få 66 i Artificial Analysis Intelligence Index.
DeepSeek har också släppt V3.2-Speciale, en variant med endast resonerande och förbättrade funktioner men betydligt högre tokenanvändning. Detta är en vanlig avvägning i resonemangsmodeller, där mer förbättrat resonemang generellt ger högre intelligenspoäng och fler utdatatokens. V3.2-Speciale finns tillgängligt via DeepSeeks förstaparts-API fram till den 15 december.
V3.2-Speciale får för närvarande lägre poäng på Artificial Analysis Intelligence Index (59) än V3.2 (Reasoning, 66) eftersom DeepSeeks förstaparts-API ännu inte stöder verktygsanrop för denna modell. Om V3.2-Speciale matchade V3.2:s tau2-poäng (91 %) med verktygsanrop aktiverat, skulle den få ~68 på Intelligence Index, vilket gör den till den mest intelligenta modellen med öppna vikter. V3.2-Speciale använder 160 miljoner utdatatoken för att köra Artificial Analysis Intelligence Index, nästan ~2 gånger antalet tokens som används av V3.2 i resonemangsläge.
DeepSeek V3.2 använder en identisk arkitektur som V3.2-Exp, som introducerade DeepSeek Sparse Attention (DSA) för att minska den beräkning som krävs för långkontextinferens. Vårt Long Context Reasoning-benchmark visade ingen kostnad för intelligensen av införandet av DSA. DeepSeek speglade denna kostnadsfördel med V3.2-Exp genom att sänka prissättningen på deras förstaparts-API från $0,56/$1,68 till $0,28/$0,42 per 1 miljon input/output-tokens – en prissättning på 50 % respektive 75 % i prissättningen av input- och outputtokens.
Viktiga benchmarking-insikter:
➤ 🧠 DeepSeek V3.2: I resonemangsläge får DeepSeek V3.2 66 poäng på Artificial Analysis Intelligence Index och placerar sig likvärdigt med Kimi K2 Thinking (67) och före Grok 4 (65), Grok 4.1 Fast (Reasoning, 64) och Claude Sonnet 4.5 (Thinking, 63). Den visar tydliga förbättringar jämfört med V3.2-Exp (57) över verktygsanvändning, långkontextresonemang och kodning.
➤ 🧠 DeepSeek V3.2-Speciale: V3.2-Speciale får högre poäng än V3.2 (Resonemang) i 7 av de 10 riktmärkena i vårt intelligensindex. V3.2-Speciale har nu de högsta respektive näst högsta poängen bland alla modeller för AIME25 (97 %) respektive LiveCodeBench (90 %). Men som nämnts ovan stöder DeepSeeks förstaparts-API för V3.2-Speciale inte verktygsanrop och modellen får ett betyg på 0 i tau2-benchmarken.
➤ 📚 Hallucination and Knowledge: DeepSeek V3.2-Speciale och V3.2 är de högst rankade öppna viktmodellerna på Artificial Analysis Omniscience Index med poängen -19 respektive -23. Proprietära modeller från Google, Anthropic, OpenAI och xAI leder vanligtvis detta index.
➤ ⚡ Icke-resonerande prestanda: I icke-resonerande läge får DeepSeek V3.2 52 poäng på Artificial Analysis Intelligence Index (+6 poäng jämfört med V3.2-Exp) och är den #3 mest intelligenta icke-resonerande modellen. DeepSeek V3.2 (Non-reasoning) matchar intelligensen i DeepSeek R1 0528, en frontier reasoning-modell från maj 2025, och lyfter fram de snabba intelligensvinster som uppnåtts genom förträning och RL-förbättringar i år.
➤ ⚙️ Tokeneffektivitet: I resonemangsläge använde DeepSeek V3.2 fler tokens än V3.2-Exp för att köra Artificial Analysis Intelligence Index (från 62M till 86M). Tokenanvändningen förblir liknande i icke-resonerande variant. V3.2-Speciale visar betydligt högre tokenanvändning, med ~160 miljoner utdatatoken före Kimi K2 Thinking (140M) och Grok 4 (120M)
➤💲Prissättning: DeepSeek har inte uppdaterat prissättningen per token för sin förstapartsmodell och alla tre varianter finns tillgängliga för $0,28/$0,42 per 1 miljon input/output-tokens
Andra modelldetaljer:
➤ ©️ Licensiering: DeepSeek V3.2 finns tillgänglig under MIT-licensen
➤ 🌐 Tillgänglighet: DeepSeek V3.2 finns tillgängligt via DeepSeek API, som har ersatt DeepSeek V3.2-Exp. Användare kan komma åt DeepSeek V3.2-Speciale via ett tillfälligt DeepSeek API fram till den 15 december. Med tanke på intelligensökningen i denna version förväntar vi oss att flera tredjepartsleverantörer snart kommer att använda denna modell.
➤ 📏 Storlek: DeepSeek V3.2 Exp har totalt 671B parametrar och 37B aktiva parametrar. Detta är samma som alla tidigare modeller i DeepSeek V3- och R1-serierna

78,19K
Whisper-Thunder-avslöjandet: Runway Gen-4.5 är nu den ledande text-till-video-modellen i Artificial Analysis Video Leaderboards, och har överträffat Veo 3, Kling 2.5 Turbo och Sora 2 Pro!
Runway Gen-4.5 är den senaste utgåvan från @runwayml och efterföljer Runway Gen-4 som släpptes i mars. Medan Gen-4 endast stödde Bild till Video, introducerar Runway Gen-4.5 Text-till-Video-generering. Vi har ännu inte utvärderat Runway Gen-4.5:s bild-till-video-genereringskapacitet.
Runway Gen-4.5 rullas gradvis ut till användare av Runway-applikationen, med bredare tillgänglighet förväntad de kommande dagarna.
Se nedan för jämförelser mellan Runway Gen-4.5 och andra ledande modeller i vår Artificial Analysis Video Arena 🧵

9,97K
Topp
Rankning
Favoriter

