Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Tekoälymallien ja isännöintipalveluntarjoajien riippumaton analyysi - valitse paras malli ja API-palveluntarjoaja käyttötapaukseesi
Päättelymallit ovat kalliita käyttää perinteisillä vertailuarvoilla, mutta ne ovat usein halvempia agenttien työnkuluissa, koska ne saavat vastauksia harvemmilla kierroksilla
Vuoden 2025 aikana olemme nähneet testiaikaisen laskennan nostavan rajatiedustelun kustannuksia, mutta agenttityönkuluissa on keskeinen ero: vastauksen nopea löytäminen voi vähentää vuorojen määrää, vaikka jokainen vuoro maksaa enemmän.

9,6K
DeepSeek-mallien tila: DeepSeek lanseerasi uudet V3.1 Terminus- ja V3.2 Exp -hybridipäättelymallinsa nopeasti peräkkäin syyskuussa ja otti merkittäviä askeleita sekä älykkyydessä että kustannustehokkuudessa
Molempia malleja voidaan käyttää päättely- ja ei-päättelytiloissa, ja ne on tarkoitettu korvaamaan sekä aiemmat V3- että R1-mallit. DeepSeek V3.1 Terminus hyppäsi 4 pistettä korkeammalle Artificial Analysis Intelligence -indeksissä kuin alkuperäinen V3.1-julkaisu ilman merkittävästi enempää tokeneita, ja V3.2 Experimental säilytti suurimman osan näistä voitoista samalla kun se vähensi merkittävästi token-kohtaisia kustannuksia DeepSeekin kokeellisen uuden arkkitehtuurin ansiosta.
DeepSeek V3.1 Terminus ja V3.2 Exp saavat samanlaiset pisteet keinotekoisessa analyysissä, ja V3.1 Terminus on yhden pisteen V3.2 Exp:n yläpuolella. Molemmat ovat materiaalipäivityksiä aikaisempiin V3- ja R1-malleihin.
Useat palveluntarjoajat palvelevat molempia malleja, ja V3.2:n saatavuus laajenee edelleen:
➤ DeepSeek V3.1 Terminus on saatavilla SambaNovassa, DeepInfrassa, Fireworksissa, GMI:ssä ja Novitassa, ja @SambaNovaAI tarjoaa tulostusnopeudet ~250 merkkiä sekunnissa (noin 10 kertaa nopeampi kuin DeepSeekin ensimmäisen osapuolen päättely)
➤ DeepSeek V3.2 Exp on saatavilla DeepSeekin ensimmäisen osapuolen API:ssa, DeepInfrassa, GMI:ssä ja Novitassa - ja DeepInfra palvelee sitä nopeimmin jopa 79 tokenin sekuntinopeudella



20,16K
Z ain päivitetty GLM 4.6 (Reasoning) on yksi älykkäimmistä avoimista painomalleista, ja sen älykkyys on lähes DeepSeek V3.1 (Reasoning) ja Qwen3 235B 2507 (Reasoning)
🧠 Avaintiedustelun vertailun poimintoja:
➤ Päättelymallin suorituskyky: GLM 4.6 (päättely) saa 56 pistettä tekoälyn älykkyysindeksissä, kun GLM 4.5:n pistemäärä oli 51 päättelytilassa
➤ Ei-päättelymallin suorituskyky: Ei-päättelytilassa GLM 4.6 saavuttaa pistemäärän 45, mikä asettaa sen 2 pistettä GPT-5:n edelle (minimaalinen, ei-päättely)
➤ Tokenin tehokkuus: Z ai on lisännyt GLM:n arviointipisteitä ja vähentänyt tulostokeneita. GLM 4.6:n (päättely) osalta näemme 14 prosentin vähennyksen tokenien käytössä Artificial Analysis Intelligence Indexin suorittamisessa 100 miljoonasta 86 miljoonaan verrattuna GLM 4,5:een (päättely). Tämä eroaa muista näkemistämme mallipäivityksistä, joissa älykkyyden lisääntyminen korreloi usein tulostokenien käytön kasvun kanssa. Ei-päättelytilassa GLM 4.6 käyttää 12 miljoonan tulostokenia tekoälyindeksiin
Muut mallin tiedot:
➤ 🪙 Kontekstiikkuna: 200K token-konteksti. Tämä on suurempi verrattuna GLM 4.5:n 128K-tokenin kontekstiikkunaan
➤ 📏 Koko: GLM 4.6:ssa on 355B kokonaisparametrit ja 32B aktiiviset parametrit - tämä on sama kuin GLM 4.5. Itsekäyttöönottoa varten GLM 4.6 vaatii ~710 Gt muistia painojen tallentamiseen alkuperäisellä BF16-tarkkuudella, eikä sitä voi ottaa käyttöön yhdessä NVIDIA 8xH100 -solmussa (~640 Gt muistia)
➤ ©️ Lisensointi: GLM 4.6 on saatavilla MIT-lisenssillä
➤ 🌐 Saatavuus: GLM 4.6 on saatavilla Z ain ensimmäisen osapuolen API:ssa ja useissa kolmannen osapuolen sovellusliittymissä, kuten DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) ja Parasail (FP8)

41,82K
Johtavat
Rankkaus
Suosikit