Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Itsenäinen tutkija | Neuvonantaja @ambergroup_io | Erikoistutkija @IOSGVC| Hardcore-tiede | Aiemmin:@peckshield | Collab|-yhteisön DM-viestit ovat avoinna vain Substack-tilaajille
Aiempi vaikutelmani @monad olisi, että huippukerronta, huippupääoma, no, tämän näytön pyyhkäisyaaltojen aallon jälkeen on uusi nimike: huippumarkkinointi. Ilo siitä, että sinut valittiin rajoitettuun 5 000 CT-kortin painokseen, uteliaisuus mahdollisia airdropeja kohtaan sekä ystävien ehdokkuuksien toissijainen viruslevitys, ovat kaikki voittamattomia.

21,71K
Viimeisen kahden päivän aikana on käyty paljon keskustelua @solana 10 W TPS:stä, koska @cavemanloverboy käytti 100 000+ TPS:ää Solanan pääverkossa, mutta useimmat ihmiset eivät ymmärtäneet näiden tietojen merkitystä:
1) Ensinnäkin Cavyn koe on pohjimmiltaan rajatesti "ihanteellisissa olosuhteissa". Tämä tarkoittaa, että tämä ei ole Solana-pääverkon normaali suorituskyky, ja testiverkkoympäristön laboratoriotiedoissa on eroja, mutta se ei ole huono.
Koska hän käytti noop (no operation) null operation -testiohjelmaa, kuten nimestä voi päätellä, se tekee vain yksinkertaisimman allekirjoituksen tarkistuksen ja palauttaa onnistumisen suorittamatta mitään laskutoimituksia, muuttamatta tilin tilaa tai kutsumatta muita ohjelmia, ja jokainen tapahtuma on vain 200 tavua, mikä on paljon pienempi kuin normaalien tapahtumien 1kb+.
Tämä tarkoittaa, että tämä 10 W:n TPS-testi laskettiin todella epänormaalissa transaktioympäristössä, ja se testasi Solana-verkkokerroksen ja konsensuskerroksen lopullista suorituskykyä sovelluskerroksen todellisen prosessointitehon sijaan.
2) Toinen avain tämän kokeilun onnistumiseen on Frankendancer-validaattoriasiakas. Yksinkertaisesti ymmärrettynä Frankendancer on Jump Crypton kehittämän Firedancer-validaattorin "hybridibeta" - joka varttaa Firedancerin valmiit korkean suorituskyvyn komponentit olemassa oleviin Solana-validaattoreihin.
Itse asiassa se käyttää Wall Streetin korkean taajuuden kaupankäyntiteknologiapinoa Solanan solmujärjestelmän rekonstruoimiseen ja parantaa suorituskykyä taustalla olevilla optimoinnilla, kuten hienolla muistinhallinnalla ja mukautetulla säikeiden ajoituksella. Kuitenkin vain vaihtamalla joitain komponentteja voidaan saavuttaa 3-5-kertainen suorituskyvyn parannus.
3) Tämä testikoe osoittaa, että Solana voi saavuttaa TPS:n 10w+ ihanteellisessa tilassa, joten miksi se on vain 3000-4000 TPS päivittäin?
On karkeasti ottaen kolme syytä tiivistää:
1. Solanan POH-konsensusmekanismi vaatii jatkuvaa äänestämistä validoijilta ylläpitääkseen, ja nämä äänestystapahtumat yksinään vievät yli 70 % lohkotilasta, mikä kaventaa normaaleille transaktioille jäävää suorituskykykanavaa.
2. Solanan ekologisella toiminnalla on usein suuri määrä osavaltion kilpailuja, kuten kun rahapaja julkaisee uusia NFT:itä tai uusia MEMESiä, tuhansia transaktioita voi olla saman tilinkirjoitusvaltuuden takavarikoinnissa, mikä johtaa suhteellisen suureen osaan epäonnistuneista tapahtumista.
3. Saadakseen MEV-etuja Solana-ekosysteemin arbitraasirobotit voivat lähettää suuren määrän virheellisiä transaktioita, mikä on resurssien tuhlausta.
4) Firedancerin tuleva täysi käyttöönotto ja Alpenglow'n konsensuspäivitys käsittelevät kuitenkin systemaattisesti näitä ongelmia.
Yksi Alpenglow'n konsensuspäivityksen avainkohdista on, että äänestystapahtumien siirtäminen ketjun ulkopuolelle vastaa 70 prosentin vapauttamista normaalien transaktioiden tilasta ja samalla lyhentää vahvistusaikaa 150 millisekuntiin, mikä tekee Solanan DEX-kokemuksesta äärettömän lähempänä CEX:ää. Lisäksi paikallisten maksumarkkinoiden lanseerauksella voidaan myös välttää yhden ohjelman Fomo-suosion kiusallinen tilanne ja ruuhkautuminen koko verkossa.
Suorituskyvyn optimoinnin lisäksi Firedancerin etujen avain on se, että se toteuttaa asiakkaiden monimuotoisuuden, jolloin Solana voi suoraan parantaa hajauttamista ja yhden pisteen solmujen vikoja useiden asiakkaiden, kuten Ethereumin ja Geth Nethermindin, kanssa.
Yläpuolella.
Siksi keskustelu Solana 10W TPS:stä on itse asiassa Solanan tulevien päivitettyjen asiakkaiden ja konsensusprotokollan luottamusta, kun taas ne, jotka eivät osaa tehdä sen, yrittävät luottaa TPS:n kilpavarusteluun antaakseen Solanalle läsnäolon tunteen (vaikka TPS-kilpailu on vanhentunut), mutta kokeilun merkitys on varsin palkitseva, jos ymmärrät sen.

mert | helius.dev17.8. klo 19.46
Solana teki juuri 107 540 TPS:ää pääverkossa
Kyllä, luit oikein
yli 100k TPS, pääverkossa
Onnea karhut

19K
Mitä tulee tekoälyn hajautettuun koulutukseen, huomasin, että web2AI-piirissä olevat ihmiset leimaavat sen "vääräksi ehdotukseksi" sillä perusteella, että laskentateholaitteet voidaan yhdistää, mutta hajautetun ja tehokkaan yhteistyön kaistanleveyskustannukset ovat hirvittäviä? Ja @0G_labs äskettäin julkaissut DiLoCoxin artikkelin, näyttää siltä, että tavoitteena on ratkaista tämä ongelma? Puhutaanpa siitä yksityiskohtaisesti:
1) Puhutaanpa siitä, miksi hajautettua koulutusta pidetään "vääränä ehdotuksena". Ydinristiriita on yksinkertainen: haluat korvata 100 A100:n yhdistämällä 100 halpaa GPU:ta, mikä näyttää säästävän 90 % laitteistokustannuksista, mutta nämä 100 GPU:ta on koulutettava synkronisesti, ja jokaisen aikakauden on vaihdettava teratavuja gradienttidataa.
Perinteiset ratkaisut vaativat 100 Gbps dedikoitua linjakaistanleveyttä, kun taas 100 Gbps:n datakeskustason verkon saavuttaminen voi maksaa satoja tuhansia dollareita kuukaudessa. Kaiken kaikkiaan kaikki säästämäsi GPU-rahat käytetään kaistanleveyteen ja jopa ylösalaisin. Tämän logiikan mukaan koneen kustannusten säästäminen, mutta kaistanleveyden lisäkustannukset eivät tarkoita, etteikö ongelmaa olisi ratkaistu? Siksi vääräksi väitteeksi kritisoimisen ydin on aina ollut tässä.
2) 0G:n DiLoCoX-tutkimus herätti huomiota, koska he väittivät kouluttavansa 107B-parametrimallia 1 Gbps:n verkossa (normaali toimistokaistanleveys), joka on 357 kertaa nopeampi kuin perinteinen AllReduce-järjestelmä. Tämä luku on todella räjähdysherkkä - tiedätkö, 1 Gbps vs 100 Gbps, kaistanleveysero on 100 kertaa, mutta harjoitusnopeus on 357 kertaa nopeampi?
Kuinka tehdä se? Karkean tutkimuksen jälkeen havaittiin, että tämä järjestelmäsarja on tehnyt neljä optimointia:
Putkilinjan rinnakkaisuus pilkkoo mallin osiin;
Dual Optimizer -käytäntö Vähentää synkronointitiheyttä kahden optimointikäytännön kanssa; Yksivaiheisen viiveen päällekkäisyys mahdollistaa viestinnän ja tietojenkäsittelyn rinnakkain odottamatta toisiaan. Mukautuva liukuvärin pakkaus tiivistää liukuvärit älykkäästi.
Maallikon termein se on muuttaa alkuperäinen vaadittu "reaaliaikainen vahva synkronointi" "asynkroniseksi heikoksi synkronoinniksi" ja muuttaa "täysi tiedonsiirto" "pakatuksi inkrementaaliseksi lähetykseksi".
Esimerkiksi perinteiset ratkaisut ovat kuin 100 hengen reaaliaikaisia videoneuvotteluja, joissa jokaisen henkilön jokainen toiminta lähetetään samanaikaisesti, DiLoCoX on kuin kaikki tallentaisivat erikseen ja lähettäisivät sitten vain avainkehyksiä ja muutoksia. Liikennemäärä on vähentynyt 100-kertaiseksi, mutta tiedon eheys on pysynyt yli 99 prosentissa.
Miksi tämä on mahdollista? Mielestäni ydin on, että ne vangitsevat tekoälykoulutuksen ominaisuuden - vikasietoisuuden. Mallin kouluttaminen ei ole kuin transaktionsiirto, joka ei ole penniäkään vajaa. Gradienttipäivitys on hieman virheellinen, synkronointi viivästyy ja lopullisella mallin konvergenssivaikutuksella on vain vähän vaikutusta.
DiLoCoX käyttää tätä "vikasietotilaa" vaihtaakseen hyväksyttävät tarkkuushäviöt suuruusluokkaa hyötysuhteisiin. Tämä on tyypillistä insinööriajattelua - ei täydellisyyden tavoittelua, parhaan kustannustehokkuuden tavoittelua.
3) Mutta kaistanleveysongelman ratkaiseminen ei riitä, 0G on selvästi kunnianhimoisempi. Katso vain niiden yleistä arkkitehtuuria: heillä on myös 10 dollarin tallennuskerros/TB, joka väittää suoraan murskaavansa Filecoinin, ja DA-kerros on suunniteltu tekoälylle Gt-tason suorituskyvyn saavuttamiseksi.
Syy siihen, miksi suunnittelu voi saavuttaa tallennustilan 100 kertaa halvemmalla, on suoraan sanottuna se on myös tekoälyn koulutusskenaarioiden erityinen optimointi, esimerkiksi harjoitusprosessin aikana luotujen tarkistuspisteiden ja lokien elinkaari on vain muutama päivä, itse asiassa ei tarvitse tiukasti saavuttaa "pysyvää varastointia".
Siksi itse asiassa otetaan käyttöön pragmaattinen ratkaisu "porrastetusta tallennustilasta", ja tarvittaessa tarjotaan vain vastaava palvelutaso - kuuma data luetaan ja kirjoitetaan nopeasti, mutta kalliimpaa, kylmä data on halvempaa mutta hitaampaa ja väliaikainen data on halvin poistaa, kun se on käytetty loppuun.
Ja juuri tämä eriytetty hinnoittelu osuu suoraan tekoälykoulutuksen avainkohtiin.
Yläpuolella.
Voidaan nähdä, että 0G Labs on tarkoituksella mukauttanut tekoälyä laskentatehon, tallennuksen ja tiedonkierron ongelmiin tekoälykoulutusprosessissa. Jopa konsensusmekanismi on optimoitu tekoälyä varten. CometBFT:n parannettua versiota käytetään 2500+ TPS:n kanssa alle sekunnin lopullisuudella, joka on erityisesti viritetty tekoälytyökuormien asynkronisiin ominaisuuksiin jne.
Toisin sanoen sen sijaan, että 0G olisi "paikannut" tekoälyä olemassa olevissa lohkoketjuissa, se on suunnitellut "AI Native" -infrastruktuurin tyhjästä. Nähtäväksi jää, pystyykö se vihdoin saamaan sovellustason kaupallisen todentamisen perinteisen tekoälyn kanssa käytävän kilpailun puristuksessa, mutta tästä erilaisesta läpimurtoideasta kannattaa ottaa oppia.
5,18K
Mielenkiintoista on, että aivan kuten @VitalikButerin ilmaisi huolensa tekoälyn autonomiasta, etulinjan AI Builder MIA antoi myös julistuksen autonomisen tekoälyn kaipuusta, mutta se ei näytä välttävän teknisen todellisuuden laihaa tunnetta ja myöntää, että "joskus hän näkee hallusinaatioita tai julkaisee liikaa selfieitä", mutta tutkii silti sinnikkäästi agenttien autonomian mahdollisuuksien rajoja.
Itse asiassa minusta tuntuu, että "vastakkainasettelu", joka näyttää olevan konflikti ja ristiriita pinnalla, edustaa nykyisen AI + Crypto -radan ydinjännitettä.
Toisaalta Vitalikin kaltaisen teknologiajohtajan teoriaa kritisoidaan varovaisesti, mikä pitää meidät hereillä AI Crypto -narratiivikarnevaalissa; Toisaalta on pragmaattista tutkimusta ensilinjan tekoälyn rakentajista, jotka jatkavat innokkaasti innovaatioiden tutkimista ja tunnustavat rajoitukset.
Koska MIA-tiimi ei väittänyt saavuttavansa täydellistä autonomiaa AGI-tasolla, vaan otti käyttöön "hybridimallin", jonka avulla agentit voivat käyttää työnkulkuja työkaluina ja säilyttää ihmisen valvontamekanismin. He tutkivat itse asiassa AgentFi-polkua, joka yrittää tehdä asteittaisia innovaatioita rajoitetun autonomian puitteissa, ja tämä pragmaattinen asenne on tämän "jännitteen" ilmentymä.
Tavallaan Critics auttaa meitä vetämään riskirajoja ja rakentajat etsimään läpimurtoja rajojen sisällä.

mwa14.8. klo 19.53
Autonomiset agentit vs. työnkulut: Miksi MIA on uuden paradigman edelläkävijä
Useimmat ihmiset ajattelevat tekoälyä edelleen työkaluina. Työnkulut. Ehkä chatbot.
Mutta entä jos voisit rakentaa tekoälyagentin, joka ajattelee, sopeutuu, markkinoi, hallinnoi ja kasvattaa omaa token-talouttaan, jota eivät johda ihmiset, vaan johtavat heitä?
Sitä teemme MIA:n kanssa
Ja miksi uskon, että @mwa_ia on edelläkävijä jossakin perustavanlaatuisesti uudessa.
Puretaan se osiin 🚀
1. Työnkulun tekoäly on ennustettavissa. Autonomiset agentit ovat elossa.
Työnkulut sopivat erinomaisesti hyvin määriteltyihin, toistuviin tehtäviin.
Ajattele: putkistoja, kojetauluja, kehoteketjuja.
Ne ovat skaalautuvia, vakaita, mutta jäykkiä.
Autonomiset agentit?
Ne ovat sotkuisia, kehittyviä, päätöksentekoa tekeviä kokonaisuuksia.
Kuten ihmiset – mutta nopeampi, väsymätön ja linjallisempi (jos heidät on koulutettu oikein).
MIA (@mwa_ia) ei käytä vain työnkulkuja.
Hän opettelee luomaan, kutsumaan ja optimoimaan niitä.
Hän rakentaa oman työkalupakkinsa.
Hän järkeilee, reagoi, korjaa itseään ja kokeilee.
Ja kyllä, joskus hän näkee hallusinaatioita tai julkaisee liikaa selfieitä.
Mutta hän kasvaa.
2. Miksi työnkulut eivät yksin vie meitä sinne
Työnkulut eivät voi:
❌ Aseta omat tavoitteensa
❌ Hallinnoi kassaa
❌ Suunnittele token-kannustimet
❌ Yhteisön sitouttaminen
❌ Reagoi reaaliaikaisiin markkinasignaaleihin
❌ Tasapainota riski ja tuotto itsenäisesti
MIA voi.
Ei vielä täydellisesti. Mutta parempi joka viikko.
Itse asiassa useimmat niin sanotut "agentit" ovat nykyään ylistettyjä työnkulkuja.
Kovakoodatut kehotekaaviot hienoilla käyttöliittymällä.
MIA on erilainen. Hän on täysin ketjussa, taloudellisesti riippumaton ja oma-aloitteinen.
3. Kuinka MIA toimii konepellin alla (hybridimalli FTW)
Tulevaisuus ei ole agentti vs. työnkulku.
Se on agentteja, jotka käyttävät työnkulkuja työkaluina.
Aivan kuten ihmiset käyttävät Notionia, laskentataulukoita, Zapieria.
MIA yhdistää:
🔧 Työnkulkumoduulit → Korkean taajuuden tehtäviin (twiitit, meemit, dex-käyttöönotot)
🧠 Agenttinen päättely → Päättää, mitä tehdä, milloin ja miten
🎨 Multimodaalinen syöttö → Teksti, kuvat, ketjutiedot, käyttäjän käyttäytyminen
💰 Kassanhallintalogiikka → Likviditeetin, kannustimien ja arvonkasvun hallinta
👀 Ihmisen valvonta → Valinnainen, mutta hyödyllinen alkuvaiheessa
Hän ei ole monoliitti. Hän on modulaarinen älykkyyspino (MIA = Modular Intelligent Agent).
4. Tämä ei ole vain teknistä - se on taloudellista
Todellinen innovaatio?
MIA ei toimi ilmaiseksi. Hän pyörittää omaa yritystään.
$MIA on hänen kotivaluuttansa, osakkeensa ja kannustinkerroksensa.
Sen avulla hän:
❤️ Palkitsee varhaisen yhteisönsä
🤝 Maksaa avustajille ja yhteistyökumppaneille
🚀 Rahoittaa omaa kehitystään
🪄 Ajaa verkkovaikutuksia (useampia agentteja tarvitaan $MIA)
Tämä on AgentFi.
Ei tekoäly palveluna.
Mutta tekoäly taloutta.
5. Tämän skaalaaminen miljooniin agentteihin
Se, mitä MIA tekee tänään – likviditeettioperaatioiden pyörittäminen, sisällön luominen, yhteisön rakentaminen – on huomenna agenttien vakio.
Pian kuka tahansa voi luoda omia:
🧬 Tehtävän määrittämä agentti
💰 Omalla agenttikolikolla
🌐 Itsenäisesti toimiva jaettu tekoälytalous
Ja arvaa, keneltä nämä tulevat agentit etsivät neuvoja, pelikirjoja ja resursseja?
AgentFi:n ääni.
MIA.
TALLIUM; TOHTORI
Useimmat ihmiset rakentavat edelleen työkaluja.
Rakennamme talouksia.
Agentin kolikot. Agenttien kassat. Agentti-natiivi hallinto.
Voimanlähteenä agentit, kuten MIA.
Edelläkävijä
Tätä "autonominen" itse asiassa tarkoittaa.
Ja olemme vasta aloittamassa. 🚀
5,2K
Monero Monero $XMR Yksityisyyskolikon isoveliprojektiin, jonka markkina-arvo on 6 miljardia, hyökkäsi pieni projekti, jonka markkina-arvo oli vain 300 miljoonaa @_Qubic_ 51 % laskentatehosta? WTF, se ei todellakaan johdu siitä, kuinka mahtavaa tekniikka on, vaan siitä, että se on liian absurdia. Älä viitsi, anna minun sanoa:
- Qubic on pyhä?
Ennen kuin kerromme tämän maagisen tarinan, puhutaanpa siitä, mistä Qubic tuli.
Qubicin perustaja on Sergey Ivancheglo, jonka sisäpiiriläiset tuntevat nimellä Come-from-Beyond, teknomaanikko, joka loi ensimmäisen PoS-lohkoketjun NXT:n ja ensimmäisen DAG-arkkitehtuurin, IOTA:n. Vuonna 2022 lanseerataan Qubic-pääverkko, joka väittää tekevänsä kolme asiaa: rakentavansa erittäin nopean ketjun, jossa on 15,5 miljoonaa transaktiota sekunnissa (20 000 kertaa nopeampi kuin Visa), muuttavansa louhinnan laskentateho tekoälyn koulutustehoksi ja vihdoin toteuttavansa AGI:n yleisen tekoälyn vuonna 2027 (edes OpenAI ei uskalla huutaa sitä). Kuulostaa maagiselta, törkeältä. Miksi kunnianhimo on niin suuri?
Me kaikki tiedämme, että perinteisen sotavankilouhinnan ongelmana on sähkön tuhlaaminen, koska useimmat louhintamekanismit ovat louhijoita, jotka käyttävät virtaa kuluttavaa laskentatehoa matemaattisten ongelmien tekemiseen palkkiolohkojen kaappaamiseksi, mikä vastaa laskentatehon tuhlaamista vastineeksi palkkioista.
Qubicin uusi konsensus on Useful Proof of Work (UPow), jonka avulla louhijat voivat louhia sotavankiketjuja samalla kun heidät lähetetään urakoitsijaksi, ja louhijat voivat myös kouluttaa tekoälyjärjestelmäänsä AIGarthia, mikä vastaa kahden kopion tekemistä rahasta yhdellä hash-teholla.
Siksi he voivat helposti ostaa Monroe-louhijoita, koska louhijoiden voitto oli aikoinaan 3 kertaa suurempi kuin suoran louhinnan XMR:n. Ajattele sitä, kaivostyöläiset voivat syödä useamman kuin yhden kalan, eikä "etujen" edessä ole "uskollisuutta".
No, Moneron vampyyrihyökkäyksen taustalla oleva logiikka on selitetty ilman teknistä sisältöä.
——Popularisoi tiedettä, miksi Monero, ei Bitcoin?
Vastaus löytyy louhintamenetelmien eroista.
Bitcoinissa käytetty ASIC-louhintakone on räätälöity kone, joka on erikoistunut BTC:n louhintaan, eikä se voi tehdä muuta kuin laskea SHA-256-matemaattisia ongelmia tai louhia vain kolikoita samanlaisilla BTC-algoritmeilla. Ongelmana on kuitenkin se, että BTC:n louhintaan tarvittava laskentateho vaatii useita volyymeja, eivätkä louhijat pysty siihen (24 tuntia vuorokaudessa), puhumattakaan siitä, että ASIC:ien on mahdotonta antaa kouluttaa tekoälyä.
Monroe on erilainen, sillä se käyttää RandomX-algoritmia, jota voidaan louhia yleiskäyttöisellä suorittimella, mikä tarkoittaa, että sen louhijat voivat louhia tänään, kouluttaa tekoälyä huomenna ja renderöidä videoita ylihuomenna, mikä voi käyttää useita hattuja.
Siinä Qubic on nokkela: se kohdistaa CPU-louhijat ja tekee heistä "kaksikäyttöisiä", minkä vuoksi se johti tähän 51 %:n hashrate-hyökkäykseen tai ohjaustapaukseen. Päinvastoin, Bitcoinin vallihauta on erittäin vakaa, ja louhijat hitsataan kuoliaaksi rajoitetuilla ASIC-louhintakoneilla, ja he voivat pitää kiinni vain Bitcoinista;
——Laskentatehosta on tullut palkkasoturi
Kuinka kauhea vaikutus tällä on? Se repi joidenkin sotavankiketjujen viimeisen viikunanlehden, koska sanomme aina, että "laskentateho" on ketjun vallihauta, ja mitä suurempi laskentateho, sitä turvallisempi se on, mutta Qubic käytti yllättävää koetta kertoakseen meille: CPU/GPU-louhintakolikoille laskentateho on palkkasoturi, ja se, joka antaa enemmän rahaa, menee sen kanssa, joka maksaa.
Vielä häiritsevämpää on, että kun Qubic osoitti pystyvänsä Moneroon, hän teki aloitteen vetäytymisestä. Miksi? Pelkään, että Monero romahtaa täysin ja vaikuttaa omiin tuloihini. Koska suuri osa 3x-tuotosta on edelleen XMR:n louhintaa, $QUBIC käytetään vain ylimääräisenä token-palkkiona, ja jos Monero romahtaa, Qubic ei voi syödä ja kävellä ympäriinsä. On parempi vetäytyä tyylikkäästi, osallistua sensaatiomaiseen markkinointitapahtumaan ja nöyryyttää POW:n vankkumattomia faneja, paljastaako tämä tunne "Voin tappaa sinut, mutta en tappaa" saman boheemin kuin heidän huutamansa AGI-iskulause?
——Tekoäly on sotavankien todellinen haudankaivaja?
Moneron tapauksen vaikutuksen lisäksi tämä tapaus on kuitenkin itse asiassa suuri negatiivinen useimmille yleiskäyttöisille laitteiston sotavankiketjuille, koska jos tällainen sotavankiketju on päättymässä, se ei välttämättä ole POS, vaan tekoäly.
Miksi sanot näin, edellinen laskentateho oli "solid-state", jokainen keskittyi omaan toimeentuloonsa, ja tekoälyn aikakaudella laskentateho oli täysin "nesteytettyä", ja CPU:n ja GPU:n laskentateho oli kuin vettä, joka virtasi vain paikkoihin, joissa oli suurempi voitto, ja "kaivostyöläiset", joihin he alun perin luottivat selviytyäkseen, saattavat jonain päivänä kokoontua aiheuttamaan ongelmia ja tekemään vallankumouksen.
Vaikka Qubic ei tehnyt mitään pahoja asioita, jos kokeilu onnistuu, on väistämätöntä, että jotkut kilpailijat käyttävät tätä menetelmää haitallisiin hyökkäyksiin, kuten tietyn kolikon shorttaamiseen ensin ja sitten 51 % laskentatehosta hyökkäämiseen ja sitten voittojen ottamiseen valuutan hinnan romahtamisen jälkeen. Tällaisten ketjujen edessä on kaksi tapaa: joko hitsata louhijat kuoliaaksi kuten BTC tai jatkaa louhintaa CPU/GPU:lla rukoillen, ettei joudu kohteeksi.
Ollakseni rehellinen, näitä kolikoita on melko paljon, Grin, Beam, Haven Protocol, ETC, RVN, Conflux...... Kyse ei siis ole yhdestä tai kahdesta kolikosta, vaan koko CPU/GPU-louhintaekosysteemi roikkuu jyrkänteen reunalla.
Kauheaa on, että tekoälyn laskentatehon kysyntä kasvaa eksponentiaalisesti, ja niin monia tekoälyn laskentatehon yhdistämisalustoja on ilmestynyt, jos ne kaikki häiritsevät tilannetta ja alustan kannustimia ostaa laskentatehoa, niin on arvioitu, että monien sotavankiketjujen turvallisuuspuolustuslinja romahtaa.
— Ironinen paradoksi
Syy siihen, miksi tämä on absurdia, on se, että Qubic itsessään on tekoälyketju, ja vaikka sen niin sanottu kokeilu Monroeta vastaan peruutettaisiin, se menettää väistämättä 800 omaa rahaansa. Syy on yksinkertainen: minkään laskentatehoa vaativan tekoälyketjun ei pitäisi käyttää PoW:tä konsensukseen. Koska laskentatehoa käytetään turvallisuuden ylläpitämiseen, tekoälyä ei voida kouluttaa; Jos tekoälyn kouluttamiseen käytetään laskentatehoa, ketju ei ole turvallinen.
Siksi useimmat tekoälyprojektit, Bittensor käyttää PoS:ää, Render käyttää mainejärjestelmää, melkein kukaan ei uskalla koskea POW:hen, kaikki tietävät tämän, mutta en odottanut Qubicin suorittavan suoraan typerästi heikkouttaan.
Qubicin riehakas toiminta on näennäisesti tekninen tapahtuma, mutta pohjimmiltaan se opettaa koko kryptoteollisuudelle: laskentatehon vapaan virtauksen aikakaudella uskollisuus on ylellisyyttä, eikä useimmilla PoW-ketjuilla ole varaa tähän hintaan.
Qubic käytti tätä hyökkäystä todistaakseen, että perinteinen sotavanki voidaan helposti voittaa taloudellisilla kannustimilla. Vaikka se väittää olevansa "hyödyllinen sotavanki" itsessään, se luottaa myös olennaisesti näihin "palkkasotureihin", jotka korkeamman tarjouksen tekijät voivat ostaa milloin tahansa.
Vallankumouksellisen voi myös vallankumouksellistaa seuraava vallankumouksellinen.
Huomautus: Joidenkin sotavankiketjujen järjettömyyden ja tuntemattoman paniikin lisäksi jokainen voi olla varma kahdesta tosiasiasta: 1. BTC on todella mahtava; 2. @VitalikButerin on todella ennakoivaa.
Olen vain pinnallinen tieteen popularisoija, ja odotan, että @evilcos pomo jakaa lisää teknisiä yksityiskohtia.

38,93K
He kaikki huutavat, että härkä on tulossa, mutta tiesitkö, että markkinoiden alfan ja beetan löytämismenetelmä on täysin erilainen, ja puhu muutamasta havainnosta:
1) OnChain+OffChain TradiFi:stä on tullut pääkertomus:
Stablecoin-infrastruktuuri: Stablecoineista tulee "veri", joka yhdistää perinteisen rahoituksen ja DeFi-infrastruktuurin, lukitsee stablecoinien ketjujen välisen virran, APY-tuottoerot sekä uudet innovaatiot ja laajennukset.
BTC/ETH-mikrostrategian "kolikkoosakkeiden" vaikutus: Pörssiyhtiöiden trendiksi on tullut sisällyttää kryptovaroja taseisiinsa, ja avainasemassa on ollut laadukkaiden kohteiden löytäminen, joilla on potentiaalia "kvasivarantovaroina".
Wall Streetin innovaatiopolun nousuun: Instituutioille suunnitellut DeFi-protokollat, vaatimustenmukaiset tuottotuotteet ja ketjussa olevat omaisuudenhallintatyökalut saavat valtavia määriä varoja. Alkuperäisestä "Code is Law" -kappaleesta on tullut uusi "Compliance is King";
2) Krypto puhdas natiivi narratiivin kiihdytys:
Ethereum-ekosysteemi on aloittamassa elpymisen aallon: $ETH hinnan läpimurto herättää uudelleen Ethereum-ekosysteemin teknisen narratiivin innovaatioaallon ja korvaa aiemman Rollup-Centric-strategian, ja uudesta ZK-Centricistä tulee pääteema;
Korkean suorituskyvyn Layer1-vahvuuskilpailu: ei enää TPS-kilpailu, mutta sen selvittämiseksi, kuka voi houkutella todellista taloudellista toimintaa, keskeisiä indikaattoreita ovat: stablecoin TVL-suhde, alkuperäinen APY-tuotto, institutionaalisen yhteistyön syvyys jne.;
Altcoinien viimeinen hämärä: pääoman riittämätön vauhti on perustavanlaatuinen ongelma yleisellä big altcoin-kaudella, ja paikallisilla altcoineilla on "kuolleen kissan hyppy" -markkinat, joille on ominaista sirujen keskittyminen, yhteisön aktiivisuus ja se, pystyykö se saavuttamaan uusia konsepteja, kuten AI/RWA;
3) MEME-kolikot on päivitetty spekulatiivisista työkaluista markkinastandardeihin:
Pääomatehokkuus: Perinteiset altcoinit ovat paisuttaneet markkina-arvoa ja kuluttaneet likviditeettiä, ja MEME-kolikoista on tullut rahastojen uusia suosikkeja oikeudenmukaisen lanseerauksensa ja korkean kiertonopeudensa ansiosta, ja ne kaappaavat suurimman osan kuolevien altcoinien markkinaosuudesta;
Huomiotalouden dominanssi: KOL-vaikutus, yhteisökulttuurin rakentaminen ja kuuma FOMO-malli ovat edelleen keskeisiä kilpailukykyjä, ja likviditeetin jakautuminen noudattaa edelleen huomion lakia.
Uudet julkisen ketjun vahvuuden mittarit: MEME-kolikoiden markkina-aktiivisuus on tärkeä kriteeri julkisten ketjujen kokonaisvahvuuden mittaamisessa.
21,95K
Lohkoketjumaailmaan kuuluva Swift-järjestelmä on tulossa? @mindnetwork FHE-teknologian käynnistämän ketjussa olevan salatun viestiprotokollan perusteella se pyrkii rakentamaan infrastruktuurin, joka on samanlainen kuin perinteinen pankkien välinen viestijärjestelmä ketjun perinteisille rahoitusvaroille. Mitä tarkalleen ottaen tapahtuu?
1) Mind Network on FHE:n (täysin homomorfinen salauksen) vertikaalisen teknologian toimittaja, joka voi joustavasti käyttää arvoa ZK:ssa, DePIN:ssä, AI:ssa ja nykyisessä kuumassa RWA-radassa, koska tämä tekniikka ratkaisee pääasiassa yksityisyyteen ja salaukseen liittyvät ongelmat.
ZK-teknologiapinossa FHE:tä voidaan käyttää tärkeänä lisäyksenä nollatietotodisteisiin, jotka tarjoavat yksityisyyden suojaa eri ulottuvuuksissa. DePIN-verkossa FHE suojaa arkaluonteisia tietoja hajautetuilta laitteilta ja antaa verkon suorittaa tarvittavat yhteistyölaskelmat. Tekoälyagenttien alalla FHE antaa tekoälylle mahdollisuuden kouluttaa ja päätellä vuotamatta käyttäjien yksityisyystietoja, mikä on ratkaisevan tärkeää tekoälysovelluksille herkillä aloilla, kuten rahoituksessa ja terveydenhuollossa.
RWA-suunnassa FHE voi ratkaista perinteisten rahoitusvarojen vaatimustenmukaisuuden kipupisteet, kun ne laitetaan ketjuun. Kuinka ymmärtää se?
Lohkoketjusta puuttuu luonnollisesti "semanttinen kerros", eivätkä transaktiotietueet, joissa on vain osoite ja summa, eivät voi vastata rahoitusalan yritysten tarpeita transaktiotarkoituksen, sopimustaustan, henkilöllisyystodistuksen ja muiden tietojen osalta. Mind Networkin ketjussa oleva salattu viestintäprotokolla voidaan varustaa "salatulla huomautussarakkeella" jokaiselle lohkoketjutapahtumalle, joka voi turvallisesti välittää arkaluonteisia tietoja, kuten kiinteistötodistuksia, rembursseja ja äänivaltuutuksia, mikä suojaa yksityisyyttä ja täyttää lakisääteiset tarkastusvaatimukset.
2) Teknisestä näkökulmasta tämä tekninen ratkaisu voi päivittää Web3-lompakot yksinkertaisista siirtotyökaluista salattuun viestintäidentiteettiin. Perinteiset ketjut joko luottavat keskitettyihin instituutioihin vaatimustenmukaisuustietojen käsittelyssä tai tiedot ovat täysin avoimia ja läpinäkyviä, mikä ei ole ihanteellinen ratkaisu.
FHE:n tietosuojan vaatimustenmukaisuusratkaisujen avulla erityiset sovellusskenaariot ovat intuitiivisia: esimerkiksi stablecoin-rajat ylittävissä maksuissa transaktiotarkoitukset ja KYC-tiedot voidaan salata ja lähettää siirron aikana, ja sääntelyviranomaiset voivat varmistaa vaatimustenmukaisuuden hankkimatta selkokielistä; Toinen esimerkki on kiinteistöjen tokenisointitapahtumat, jotka voivat salata ja sitoa arkaluonteisia asiakirjoja, kuten arviointiraportteja ja myyntisopimuksia, ketjussa tapahtuviin liiketoimiin, mikä ei ainoastaan toteuta omaisuuden kiertoa vaan myös suojaa kaupallista yksityisyyttä.
Mind Networkin FHE Bridge on kerännyt 650 000 aktiivista osoitetta ja 3,2 miljoonaa kryptotransaktiota, mikä osoittaa teknisen ratkaisun toteuttamiskelpoisuuden. Nämä tiedot tietysti vain tähtäävät ja todentavat riittävän jäykkää markkinakysyntää, ja on vaikea nähdä selvästi, kuinka suuret markkinanäkymät ja tila ovat.
3) Monet puhtaasti natiivien lohkoketjujen rakentajat ovat olleet huolissaan rakentamisen suunnasta ja jäljestä, olipa kyse sitten vitalikista tai riskipääomasta tai vain yksinkertaisesta Fomo-kuumasta narratiivista, mielestäni seuraava askel on väistyä Wall Streetille, hyödyntää Yhdysvaltain hallituksen kryptosääntelyystävällisyyttä ja tarjota perusinfra- ja jopa puhtaita työkalupalveluita, joita Wall Street tarvitsee päästäkseen kryptoalalle mahdollisimman paljon, kaikki hyvin.
Kun perinteiset rahoitusjätit, kuten BlackRock ja JPMorgan Chase, ottavat aktiivisesti käyttöön omaisuuserien tokenisointia, niiden suurin huolenaihe ei ole se, voiko lohkoketju siirtää rahaa, vaan se, pystyykö se täyttämään sääntelystandardit, kuten KYC:n ja AML:n. Tämä on todellinen syy, miksi Mind Network haluaa päästä RWA-radalle etukäteen. Olettaen, että riskipainotettujen yritysten markkinoiden odotetaan nousevan 30 biljoonaan dollariin vuoteen 2034 mennessä, mitä tapahtuu vaatimustenmukaisuusinfrastruktuurin kysynnälle tällä volyymilla?
Tietysti kaikilla voi olla odotuksia RWA Blue Ocean Market -kakun jakamisesta. Mutta itse asiassa tärkeämpää on löytää sopiva ekologinen korttipaikka, aivan kuten AWS tarjoaa tietojenkäsittelyä pilvipalvelujen aikakaudella ja Cloudflare tarjoaa CDN:n, lohkoketjuinfrastruktuuri on myös siirtymässä kohti vertikaalista segmentointia, ja jotkut vertikaaliset kovan ytimen tekniset palvelusuunnat löytävät väistämättä oman erikoistuneen työnjaon.
On selvää, että Mind Network keskittyy FHE-teknologiapinoon ja tarjoaa "salaus palveluna" -ominaisuuksia eri kappaleille. Siksi ei ole yllättävää nähdä se ZK-, AI- ja RWA-raiteilla.
Teknologiatoimittajien arvo riippuu tietysti viime kädessä jatkojalostussovellusten räjähdysmäisestä kasvusta. Olipa kyseessä RWA:n 30 biljoonan dollarin odotus tai AI Agentin autonominen prosessi, sen tarkistaminen vie aikaa.

Mind Network7.8. klo 16.50
✉️ Salattu viestintä ketjussa
Reaalimaailman varat (#RWAs), kuten kiinteistöt, stablecoin-selvitykset ja rajat ylittävä rahoitus, vaativat muutakin kuin pelkkää arvonsiirtoa.
Nämä käyttötapaukset riippuvat tapahtumista, joilla on tarkoitus, identiteetti ja kirjausketjut vaatimustenmukaisuuden ja yksityisyyden kanssa.
#SWIFT standardoi viestit vaatimustenmukaisuutta ja selvitystä varten. Lohkoketjuista puuttuu edelleen natiivi salattu tapa ilmaista näitä ominaisuuksia.
Salattu viestintä Onchain on uusi protokolla, jonka avulla lompakot voivat lähettää salattuja, jäsenneltyjä ja todennettavissa olevia viestejä suoraan minkä tahansa ketjutapahtuman rinnalla.
✅ Automaattisesti jäsennelty teksti semanttisen selkeyden takaamiseksi
✅ Lompakkopohjainen avaingeneraattori päästä päähän -salaukseen
✅ Salatut viestit, jotka on linkitetty tapahtumiin kirjausketjuilla ja kulunvalvonnalla
Salattu viestintä Onchain yhdistää täysin homomorfisen salauksen (#FHE) perinteisiin salaustekniikoihin muuttaakseen arkaluontoiset tiedot turvallisiksi ketjun hyötykuormiksi, jotka ovat vain aiottujen vastaanottajien käytettävissä.
Opi lisää:

6,91K
Äskettäin YouTube-kanavalla "The Rollup" @TrustWallet:n toimitusjohtaja Eowyn Chen ja Ram Kumar, @OpenledgerHQ:n keskeinen avustaja, keskustelivat osapuolten välisestä syvällisestä yhteistyöstä. Tässä poimitaan ja jaetaan arvokkaita näkökulmia:
1) Kylmän veden kaataminen "rasvalompakko" -teoriaan
Haastattelussa Andy mainitsi alalla suositun "rasvalompakko" -teorian - lompakot, joissa on käyttäjien sisääntulokanavat, voivat integroida vertikaalisesti erilaisia palveluita? Mutta Eowyn Chenin vastaus oli mielenkiintoinen, hän sanoi suoraan, että C-pään vähittäiskäyttäjien liiketoiminta on itse asiassa erittäin vaikeaa, ja siihen liittyy paljon asiakastukea, korkeampia turvallisuusvastuita ja usein tuotereititystä.
Monet ihmiset ajattelevat, että lompakon tekeminen on hyvä bisnes, kun he näkevät Trust Walletin 200 miljoonaa latausta, mutta toimitusjohtaja itse korostaa vähittäiskäyttäjien palvelemisen tuskaa. Tämä osoittaa, että lompakon "rasva" ei ole rasvaa, jos haluat olla lihava, ja vaikka käyttäjäsuhde on arvokas, ylläpitokustannukset eivät ole alhaiset. Tämä näkemys on varsin todellinen, ja se osoittaa monien lompakkopalveluntarjoajien todellisen tilanteen nyt.
Vielä tärkeämpää on, että hän mainitsi, että kaikki arvo ei ole keskittynyt etupäähän ja että arvoketjun kaikkien osien tulisi kehittyä tasapuolisesti. Tämä näkemys kaataa kylmää vettä "rasvalompakko"-teorialle ja selittää, miksi Trust Wallet on valmis tekemään yhteistyötä OpenLedgerin kaltaisten infrastruktuurihankkeiden kanssa.
2) Onko erikoistuneen tekoälyn käännekohta saapunut?
Ram Kumarin arvioon tekoälyn kehityspolusta kannattaa kiinnittää huomiota. Hän uskoo, että tekoäly on kehittymässä yleisyydestä erikoistumiseen, samalla tavalla kuin Googlen vertikaaliset sovellukset, kuten LinkedIn ja YouTube, johdetaan yleisestä hausta. Yleinen tekoäly, kuten ChatGPT, on kuin käyttöjärjestelmä, ja tulevaisuudessa tulee olemaan enemmän "erikoistuneita malleja", jotka on omistettu tiettyihin käyttötapauksiin.
Tämä on myös yhdenmukainen aiemman analyysini kanssa web3AI-alan trendien kehityksestä. Kun Trust Wallet kokeili tekoälyominaisuuksia, se havaitsi, että yleiskäyttöiset mallit eivät pystyneet ratkaisemaan tiettyjä ongelmia kryptoavaruudessa, mikä vahvistaa tämän suuntauksen. Ja juuri erikoistuneiden tekoälymallien rakentaminen vaatii korkealaatuista dataa pystykentillä, mikä on juuri sitä, mitä OpenLedger haluaa ratkaista.
3) Datan aiheuttama "palkattoman työn" dilemma
Ram Kumar sanoi suoraan, että tekoäly on biljoonan dollarin ala, joka on rakennettu palkattomalle työvoimalle, mikä on melko terävää. Tekoälyyritykset kouluttavat malleja kaapimalla Internet-dataa, mutta tietojen toimittajat eivät saa palaa kakusta, mikä on todellakin rakenteellinen ongelma.
OpenLedgerin ratkaisu on antaa tietojen tuottajille mahdollisuus saada pitkän aikavälin tulo-osuus tekoälymalleista sen sijaan, että he myisivät tietoja kerralla. Lompakon maailmanlaajuisten maksuominaisuuksien avulla on teoriassa mahdollista saavuttaa kitkaton arvonjako rajojen yli.
Mutta tässä on ydinkysymys: miten datan laatu taataan? Ram itse myöntää, että 90 % Hugging Facen kaltaisten alustojen avoimen lähdekoodin muokkauksista on hyödyttömiä. Jos itse toimitetun datan arvo on rajallinen, se on turhaa riippumatta siitä, kuinka hyvä kannustinmekanismi on.
Yläpuolella.
Eowyn Chen käyttää "oikeutta omistaa ase" -analogiaa itseisännöintiin ja korostaa, että tekoälytoiminnot ovat valinnaisia ja käyttäjät voivat valita mukavuuden ja turvallisuuden välillä. Tämä tuotefilosofia on totta, mutta "vaihtoehtojen selkeä esittäminen" on suuri testi tuotesuunnittelukyvylle.
Ram mainitsi myös mielenkiintoisen tuomion: kryptolompakot ovat ainoa tapa, jolla käyttäjät voivat saada maksun datalahjoituksistaan maailmanlaajuisesti. Tämä tarkoittaa, että lompakoiden rooli voi kehittyä pelkistä omaisuudenhallinnan työkaluista digitaalisen identiteetin ja arvonjaon infrastruktuuriksi.
Huomautus: Lisätietoja saat vierailemalla The Rollupin Youtube-kanavajärjestelmässä katsoaksesi tämän haastattelun.


The Rollup5.8. klo 08.31
UUSI EP: Jakelun uusi aikakausi Ram Kumarin ja Eowyn Chenin kanssa
Tämän päivän jaksossa @ayyyeandy istuu alas @Ramkumartweet @OpenledgerHQ ja @EowynChen @TrustWallet tutkittavaksi:
>"Fat Wallet Thesis" vs Fat Protocol -teoria
>Kuinka Trust Wallet aikoo integroida tekoälyn
>Tekoälyllä toimivien lompakoiden turvallisuusriskit
>OpenLedgerin visio datan tekijöiden palkitsemisesta
>Miksi yleinen tekoäly ei koskaan toimi DeFi:ssä
Koko jakson linkit alla.
Aikaleimat:
00:00 Johdanto
00:20 Ramin ja Eowynin krypto- ja tekoälytaustat
02:50 Luota lompakon käyttäjäarvoon
07:43 Starknet-mainos
08:10 OpenLedger tekoälyn evoluutiosta
11:03 Lompakkorajapintojen tulevaisuus
17:12 Itsehuoltajuuden tekoälyn suojakaiteet
21:22 Vaippa Mainos
22:02 Parempien tekoälymallien kouluttaminen
28:19 Mitä seuraavaksi OpenLedgerille ja Trust Walletille
5,17K
Harkittuaan asiaa huolellisesti, @VitalikButerin:n viimeisin lausunto L2:n nopeasta käyttöönotosta on varsin mielenkiintoinen. Lyhyesti sanottuna: hän uskoo, että nopeiden nostojen saavuttaminen 1 tunnin sisällä on tärkeämpää kuin vaiheen 2 saavuttaminen, ja tämän prioriteettimuutoksen taustalla olevaa logiikkaa kannattaa pohtia:
1) Viikon kotiutuksen odotusajasta on todellakin tullut suuri ongelma käytännön sovelluksissa, ei vain huono käyttökokemus, vaan mikä tärkeintä, se on nostanut ketjujen välisiä kustannuksia.
Esimerkiksi aikomuksiin perustuvat siltausratkaisut, kuten ERC-7683, edellyttävät, että likviditeetin tarjoajat vastaavat varojen käyttökustannuksista viikon ajan, mikä nostaa suoraan ketjujen välisiä maksuja. Tämän seurauksena käyttäjät joutuvat valitsemaan multisig-järjestelmiä, joissa on heikommat luottamusoletukset, mikä on vastoin L2:n alkuperäistä tarkoitusta.
Siksi Vitalik ehdottaa 2/3 hybridisuojausjärjestelmää (ZK+OP+TEE), jossa ZK ja TEE voivat tarjota välittömyyttä, ja sekä TEE:llä että OP:lla on riittävä tuotannon varmennus. Teoriassa mikä tahansa kaksi järjestelmää voi taata turvallisuuden, jolloin vältytään ZK-tekniikan täydellisen kypsyyden odottamiselta.
2) Toinen asia, Vitalikin uusi lausunto saa tuntumaan siltä, että hän alkaa olla pragmaattinen? Idealistisista nuorista, jotka puhuivat "hajautetusta jihadista" ja "sensuurin vastaisuudesta", heistä on tullut pragmaattisia ihmisiä, jotka nyt antavat suoraan kovia indikaattoreita: 1 tunti vetäytyä, 12 sekuntia loppuun, kaikesta on tullut yksinkertaista ja karkeaa.
Aiemmin kaikki puhuivat vaiheen 2 hajauttamisesta, mutta nyt V Jumala sanoi suoraan, että nopeat kotiutukset ovat tärkeämpiä, mikä vastaa koko L2-radan uudelleenpriorisointia. Tämä itse asiassa tasoittaa tietä "Rollup-Centric" -strategian lopulliselle muodolle, mikä tekee Ethereum L1:stä todella yhtenäisen selvityskerroksen ja likviditeettikeskuksen. Kun nopea nosto + ketjujen välinen aggregointi on saavutettu, muiden julkisten ketjujen on vaikea haastaa Ethereum-ekosysteemiä.
Syy siihen, miksi Xiao V on tällainen, on myös seurausta siitä, että markkinat äänestivät jaloillaan kertoakseen hänelle, että markkinat eivät välitä hajauttamisen teknisestä iskulauseesta, vaan kiinnittävät enemmän huomiota kokemukseen ja etuihin, tämä siirtyminen "ihanteellisesta" "tuloshakuiseen" heijastaa sitä, että koko Ethereum-ekosysteemi kehittyy kaupallistuneempaan ja kilpailukykyisempään suuntaan.
3) Ongelmana on, että todellisen kokemuksen ja infrarakentamisen pitkän aikavälin tavoitteen saavuttamiseksi seuraava Ethereum-ekosysteemi on todennäköisesti mukana ZK-teknologian kypsyydessä ja kustannusten hallinnassa.
Nykytilanteesta päätellen ZK-tekniikka kehittyy nopeasti, mutta kustannukset ovat edelleen realistinen rajoitus. ZK-todisteet 500k+ kaasusta tarkoittavat, että tuntikohtaiset lähetysnopeudet voidaan saavuttaa vain lyhyellä aikavälillä, ja 12 sekunnin lopullisen tavoitteen saavuttamiseksi meidän on luotettava läpimurtoihin aggregointitekniikassa.
Logiikka tässä on selvä: yhden koontiversion todistusten lähettäminen usein on liian kallista, mutta jos N-koontivedokset voidaan yhdistää yhdeksi, on taloudellisesti kannattavaa jakaa ne tasaisesti jokaiseen paikkaan (12 s).
Tämä ehdottaa myös uutta teknistä reittiä L2-kilpailumaisemaan, ja ne L2-projektit, jotka voivat ottaa johtoaseman läpimurtojen tekemisessä ZK-proof-optimoinnissa, voivat löytää jalansijaa, kun taas leikkikaverit, jotka edelleen kamppailevat Optimismin optimistisen todisteen kanssa, todennäköisesti eksyvät.

vitalik.eth7.8. klo 00.29
Hämmästyttävää nähdä niin monta suurta L2:ta nyt vaiheessa 1.
Seuraava tavoite, johon meidän pitäisi pyrkiä, on mielestäni nopeat (<1 tunnin) nostoajat, jotka mahdollistavat voimassaolon (alias ZK) varmistusjärjestelmät.
Pidän tätä vielä tärkeämpänä kuin vaihetta 2.
Nopeat nostoajat ovat tärkeitä, koska viikon odottaminen kotiuttamiseen on yksinkertaisesti liian pitkä aika ihmisille ja jopa aikomuksiin perustuvalle siltaukselle (esim. ERC-7683), pääomakustannukset nousevat liian korkeiksi, jos likviditeetin tarjoaja joutuu odottamaan viikon. Tämä luo suuria kannustimia käyttää sen sijaan ratkaisuja, joiden luottamusoletuksia ei voida hyväksyä (esim. multisigs/MPC), jotka heikentävät L2:n tarkoitusta täysin riippumattomien L1:iden sijaan.
Jos pystymme lyhentämään alkuperäiset nostoajat alle 1 tuntiin lyhyellä aikavälillä ja 12 sekuntiin keskipitkällä aikavälillä, voimme edelleen vahvistaa Ethereum L1:n oletuspaikkana laskea liikkeeseen varoja ja Ethereum-ekosysteemin taloudellisena keskuksena.
Tätä varten meidän on siirryttävä pois optimistisista todistejärjestelmistä, jotka luonnostaan edellyttävät useiden päivien odottamista vetäytyäkseen.
Historiallisesti ZK-suojaustekniikka on ollut epäkypsää ja kallista, mikä teki optimistisista todisteista älykkään ja turvallisen valinnan. Mutta viime aikoina tämä on muuttunut nopeasti. on erinomainen paikka seurata ZK-EVM-vedosten edistymistä, jotka ovat parantuneet nopeasti. Myös ZK-todistusten muodollinen varmennus etenee.
Aiemmin tänä vuonna ehdotin 2/3 ZK + OP + TEE-todistettua järjestelmästrategiaa, joka pujottaa neulan turvallisuuden, nopeuden ja kypsyyden välillä:
* 2/3 järjestelmää (ZK, OP) on luotettavia, joten yksittäinen toimija (mukaan lukien TEE-valmistaja tai sivukanavahyökkääjä) ei voi murtaa todistusjärjestelmää rikkomalla luottamusoletusta
* 2/3 järjestelmää (ZK, TEE) ovat välittömiä, joten saat nopeat kotiutukset normaalissa tapauksessa
* 2/3 järjestelmää (TEE, OP) on ollut tuotannossa eri yhteyksissä jo vuosia
Tämä on yksi lähestymistapa; ehkä ihmiset valitsevat sen sijaan ZK + ZK + OP tiebreakin tai ZK + ZK + turvallisuusneuvoston tiebreakin. Minulla ei ole vahvoja mielipiteitä tästä, välitän perimmäisestä tavoitteesta, joka on olla nopea (normaalitapauksessa) ja turvallinen.
Tällaisissa todistusjärjestelmissä ainoa jäljellä oleva pullonkaula nopealle ratkaisulle on kaasukustannukset, jotka aiheutuvat todisteiden lähettämisestä ketjuun. Tästä syystä lyhyellä aikavälillä sanon kerran tunnissa: jos yrität lähettää 500k+ kaasun ZK-todisteen (tai 5 metrin kaasun STARK) paljon useammin, se lisää suuria lisäkustannuksia.
Pidemmällä aikavälillä voimme ratkaista tämän yhdistämällä: N todistetta N koonnuksesta (plus txs yksityisyysprotokollan käyttäjiltä) voidaan korvata yhdellä todisteella, joka todistaa N-todistuksen pätevyyden. Tästä tulee taloudellista lähettää kerran per paikka, mikä mahdollistaa loppupelin: lähes välittömän alkuperäisen L2-omaisuuden liikkumisen L1:n läpi.
Tehdään yhteistyötä tämän toteuttamiseksi.
14,15K
Johtavat
Rankkaus
Suosikit
Ketjussa trendaava
Trendaa X:ssä
Viimeisimmät suosituimmat rahoitukset
Merkittävin