Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Uavhengig analyse av AI-modeller og vertsleverandører - velg den beste modellen og API-leverandøren for ditt bruksområde
Alibaba har gitt ut Qwen3 Next 80B: en hybrid resonneringsmodell med åpne vekter som oppnår intelligens på DeepSeek V3.1-nivå med bare 3B aktive parametere
Viktige takeaways:
💡 Ny arkitektur: Første modell som introduserte @Alibaba_Qwen 'Qwen3-Next'-fundamentmodeller, med flere viktige arkitekturbeslutninger som en hybrid oppmerksomhetsmekanisme for Gated DeltaNet og Gated Attention, og høy sparsitet med en 3,8 % aktiv parameterandel, sammenlignet med 9,4 % for Qwen3 235B
🧠 Intelligens: Qwen3 Next 80B (Reasoning) scorer 54 på Artificial Analysis Intelligence Index, plassert sammen med DeepSeek V3.1 (Reasoning). Den ikke-resonnerende varianten scorer 45, i tråd med gpt-oss-20B og Llama Nemotron Super 49B v1.5 (resonnement)
💲 Prismodell: Per token-pris på @alibaba_cloud er $0,5/$6 per 1M input/output-tokens for resonnement og $0,5/$2 for den ikke-resonnerende varianten. Dette kan sammenlignes med høyere priser for Qwen3 235B 2507 på $0,7/$8,4 med resonnement og $0,7/$2,8 uten – en reduksjon på ≥25 % avhengig av arbeidsmengde
⚙️ Modelldetaljer: Modellen har et opprinnelig kontekstvindu på 256k tokener og er kun tekst, uten multimodale inn- eller utdata. Ved bare 80B parametere ved FP8 passer modellen på en enkelt H200 GPU

72
Lansering av vår State of Generative Media 2025-undersøkelse støttet av @fal! Bli med for å motta hele undersøkelsesrapporten og vinn et par Meta Ray-Bans 🕶️
Vi gjennomfører undersøkelsen for å samle innsikt i tilstanden til generative medier i 2025. Dette inkluderer perspektiver på hvordan organisasjoner bruker, velger og får tilgang til bilde-, video- og musikkmodeller!
Hvorfor delta?
✅ Motta en gratis kopi av den utvidede undersøkelsesrapporten (bare en begrenset versjon vil være offentlig tilgjengelig)
✅ En sjanse til å vinne et par Ray-Ban Meta AI-briller 🕶️
✅ Bidra til å dele innsikt om de viktigste trendene som former generative medier
Link i tråden nedenfor! ⬇️⬇️⬇️⬇️⬇️⬇️⬇️
120
DeepSeek lanserer V3.1, som forener V3 og R1 til en hybrid resonneringsmodell med en trinnvis økning i intelligens
Inkrementell intelligensøkning: Innledende benchmarking-resultater for DeepSeek V3.1 viser Artificial Analysis Intelligence Index på 60 i resonneringsmodus, opp fra R1s poengsum på 59. I ikke-resonnerende modus oppnår V3.1 en poengsum på 49, en større økning fra den tidligere V3 0324-poengsummen på 44. Dette etterlater V3.1 (resonnement) bak Alibabas siste Qwen3 235B 2507 (resonnement) - DeepSeek har ikke tatt tilbake ledelsen.
Hybrid resonnement: @deepseek_ai har gått over til en hybrid resonneringsmodell for første gang - som støtter både resonnerende og ikke-resonnerende moduser. DeepSeeks overgang til en enhetlig hybrid resonneringsmodell etterligner tilnærmingen til OpenAI, Anthropic og Google. Det er imidlertid interessant å merke seg at Alibaba nylig forlot hybridtilnærmingen de foretrakk for Qwen3 med sine separate utgivelser av Qwen3 2507-resonnement- og instruksjonsmodeller.
Funksjonskall / verktøybruk: Mens DeepSeek hevder forbedret funksjonskall for modellen, støtter ikke DeepSeek V3.1 funksjonskall når du er i resonneringsmodus. Dette vil sannsynligvis begrense evnen til å støtte agentiske arbeidsflyter med intelligenskrav, inkludert i kodeagenter.
Tokenbruk: DeepSeek V3.1 scorer trinnvis høyere i resonneringsmodus enn DeepSeek R1, og bruker litt færre tokener på tvers av evalueringene vi bruker for Artificial Analysis Intelligence Index. I ikke-resonnerende modus bruker den litt flere tokens enn V3 0324 - men fortsatt flere ganger færre enn i sin egen resonneringsmodus.
API: DeepSeeks førsteparts-API serverer nå den nye DeepSeek V3.1-modellen på både chat- og resonnementendepunktene – ganske enkelt ved å endre om slutttenkningstokenet </think> gis til modellen i chat-malen for å kontrollere om modellen vil resonnere.
Arkitektur: DeepSeek V3.1 er arkitektonisk identisk med tidligere V3- og R1-modeller, med 671B totale parametere og 37B aktive parametere.
Implikasjoner: Vi vil råde til forsiktighet med å gjøre antagelser om hva denne utgivelsen innebærer om DeepSeeks fremgang mot en fremtidig modell referert til i rykter som V4 eller R2. Vi bemerker at DeepSeek tidligere ga ut den endelige modellen bygget på deres V2-arkitektur 10 desember 2024, bare to uker før utgivelsen av V3.


408
Topp
Rangering
Favoritter