Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Uavhengig analyse av AI-modeller og vertsleverandører - velg den beste modellen og API-leverandøren for ditt bruksområde
MoonshotAI har gitt ut Kimi K2 Thinking, en ny resonneringsvariant av Kimi K2 som oppnår #1 i Tau2 Bench Telecom agentic benchmark og er potensielt den nye ledende modellen med åpne vekter
Kimi K2 Thinking er en av de største åpne vektmodellene noensinne, med 1T totale parametere med 32B aktiv. K2 Thinking er den første resonnerende modellutgivelsen i @Kimi_Moonshot Kimi K2-modellfamilie, etter ikke-resonnerende Kimi K2 Instruct-modeller utgitt tidligere i juli og september 2025.
Viktige takeaways:
➤ Sterk ytelse på agentiske oppgaver: Kimi K2 Thinking oppnår 93 % i τ²-Bench Telecom, en referanse for bruk av agentverktøy der modellen fungerer som en kundeserviceagent. Dette er den høyeste poengsummen vi uavhengig har målt. Verktøybruk i agentiske sammenhenger med lang horisont var en styrke for Kimi K2 Instruct, og det ser ut til at denne nye Thinking-varianten gir betydelige gevinster
➤ Resonnerende variant av Kimi K2 Instruct: Modellen, i henhold til navnet, er en resonnerende variant av Kimi K2 Instruct. Modellen har samme arkitektur og samme antall parametere (men forskjellig presisjon) som Kimi K2 Instruct og støtter i likhet med K2 Instruct bare tekst som en inn- og utdatamodalitet
➤ 1T-parametere, men INT4 i stedet for FP8: I motsetning til Moonshots tidligere Kimi K2 Instruct-utgivelser som brukte FP8-presisjon, har denne modellen blitt utgitt i INT4-presisjon. Moonshot brukte kvantiseringsbevisst trening i fasen etter trening for å oppnå dette. Virkningen av dette er at K2 Thinking bare er ~594 GB, sammenlignet med litt over 1 TB for K2 Instruct og K2 Instruct 0905 - noe som gir effektivitetsgevinster for inferens og trening. En potensiell årsak til INT4 er at NVIDIA-GPUer før Blackwell ikke har støtte for FP4, noe som gjør INT4 mer egnet for å oppnå effektivitetsgevinster på tidligere maskinvare.
Vårt komplette sett med Artificial Analysis Intelligence Index-referanser er under utvikling, og vi vil gi en oppdatering så snart de er fullført.

60,34K
Inworld TTS 1 Max er den nye lederen på Artificial Analysis Speech Arena Leaderboard, og overgår MiniMax sin Speech-02-serie og OpenAIs TTS-1-serie
Artificial Analysis Speech Arena rangerer ledende tekst-til-tale-modeller basert på menneskelige preferanser. På arenaen sammenligner brukere to deler av generert tale side om side og velger deres foretrukne utgang uten å vite hvilke modeller som skapte dem. Talearenaen inkluderer spørsmål på tvers av fire virkelige kategorier av spørsmål: Kundeservice, Kunnskapsdeling, Digitale assistenter og Underholdning.
Inworld TTS 1 Max og Inworld TTS 1 støtter begge 12 språk, inkludert engelsk, spansk, fransk, koreansk og kinesisk, og stemmekloning fra 2-15 sekunder med lyd. Inworld TTS 1 behandler ~153 tegn per sekund av generasjonstiden i gjennomsnitt, med den større modellen, Inworld TTS 1 Max, som behandler ~69 tegn i gjennomsnitt. Begge modellene støtter også stemmekoder, slik at brukere kan legge til følelser, leveringsstil og ikke-verbale lyder, for eksempel "hvisking", "hoste" og "overrasket".
Både TTS-1 og TTS-1-Max er transformatorbaserte, autoregressive modeller som bruker henholdsvis LLaMA-3.2-1B og LLaMA-3.1-8B som deres SpeechLM-ryggrad.
Se de ledende modellene i Speech Arena, og lytt til eksempelklipp nedenfor 🎧

18,96K
Whisper bærer ikke lenger kronen med transkripsjonsnøyaktighet med åpne vekter med nye deltakere som oppnår bedre kunstig analyse Word Error Rate-score
En gang ansett som standardvalget for transkripsjon av åpne vekter, har OpenAIs Whisper nå blitt overgått av nyere åpne vektmodeller på Artificial Analysis Word Error Rate (AA-WER) benchmark som måler transkripsjonsnøyaktighet. AA-WER består av tre utfordrende datasett på linje med brukstilfeller i den virkelige verden: AMI-SDM (møter med flere høyttalere), Earnings-22 (inntjeningssamtaler) og VoxPopuli (parlamentariske forhandlinger).
Beste utøvere med åpne vekter: @NVIDIA's Canary Qwen 2.5B og Parakitt TDT 0.6B V2, etterfulgt av @Mistral's Voxtral Small og Mini, og @IBM Granite Speech 3.3 8B.
Åpne vekter Tale til tekst-modeller tilbyr distribusjonsfleksibilitet, kostnadsfordeler, potensialet for tilpassing/finjustering og muliggjør brukstilfeller som personvernsensitive arbeidsbelastninger som må kjøres lokalt.

43,2K
Topp
Rangering
Favoritter

