Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Oberoende forskare | Rådgivare @ambergroup_io | Särskild Forskare @IOSGVC| Hardcore Vetenskap | Tidigare:@peckshield | DMs för Collab| Communityn är endast öppen för Substack-prenumeranter
Mitt tidigare intryck av @monad skulle vara att toppberättelsen, toppkapitalet, ja, efter den här vågen av skärmsvepande program finns det en ny etikett: toppmarknadsföring. Glädjen över att bli utvald till en begränsad upplaga på 5 000 CT-kort, och nyfikenheten på potentiella airdrops, plus den sekundära virala spridningen av nomineringar till vänner, är alla oövervinnerliga.

21,71K
Under de senaste två dagarna har det varit mycket diskussioner kring @solana 10W TPS, eftersom @cavemanloverboy körde 100 000+ TPS på Solanas huvudnät, men de flesta förstod inte innebörden bakom dessa uppgifter:
1) Först och främst är Cavys experiment i huvudsak ett gränstest under "ideala förhållanden". Detta innebär att detta inte är den normala prestandan för Solanas huvudnät, och det finns en skillnad mellan laboratoriedata i testnätsmiljön, men det är inte dåligt.
Eftersom han använde testprogrammet noop (no operation) null operation, som namnet antyder, gör det bara den mest grundläggande signaturverifieringen och returnerar framgång, utan att utföra några beräkningar, ändra någon kontostatus eller ringa andra program, och varje transaktion är bara 200 byte, vilket är mycket lägre än 1kb+ för normala transaktioner.
Detta innebär att detta 10W TPS-test verkligen beräknades i en onormal transaktionsmiljö, och det testade den ultimata genomströmningen av Solana-nätverkslagret och konsensuslagret, snarare än den faktiska processorkraften i applikationslagret.
2) En annan nyckel till framgången för detta experiment är Frankendancer-valideringsklienten. Enkelt förstått är Frankendancer en "hybrid beta" av Firedancer-valideraren som utvecklas av Jump Crypto - som ympar Firedancers färdiga högpresterande komponenter på befintliga Solana-validerare.
Faktum är att den använder Wall Streets högfrekventa handelsteknikstack för att rekonstruera Solanas nodsystem och förbättrar prestandan genom underliggande optimeringar som fin minneshantering och anpassad trådschemaläggning. Men bara genom att byta ut vissa komponenter kan en 3-5 gånger prestandaförbättring uppnås.
3) Detta testexperiment visar att Solana kan uppnå en TPS på 10w+ i ett idealiskt tillstånd, så varför är det bara 3000-4000 TPS dagligen?
Det finns i stort sett tre skäl att sammanfatta:
1. Solanas POH-konsensusmekanism kräver kontinuerlig röstning från validerare för att upprätthållas, och enbart dessa röstningstransaktioner upptar mer än 70 % av blockutrymmet, vilket minskar prestandakanalen som finns kvar för normala transaktioner.
2. Solanas ekologiska aktiviteter har ofta ett stort antal statliga tävlingar, till exempel när Mint släpper nya NFT:er eller nya MEMES, kan det finnas tusentals transaktioner som tar samma kontoskrivningsauktoritet, vilket resulterar i en relativt stor andel misslyckade transaktioner.
3. För att få MEV-fördelar kan arbitragerobotar i Solanas ekosystem skicka ett stort antal ogiltiga transaktioner, vilket är ett slöseri med resurser.
4) Den kommande fullständiga utrullningen av Firedancer och konsensusuppgraderingen av Alpenglow kommer dock att systematiskt ta itu med dessa frågor.
En av de viktigaste punkterna i Alpenglows konsensusuppgradering är att flytta rösttransaktioner utanför kedjan motsvarar att frigöra 70 % av utrymmet för normala transaktioner, samtidigt som bekräftelsetiden minskar till 150 millisekunder, vilket gör Solanas DEX-upplevelse oändligt mycket närmare CEX. Dessutom kan lanseringen av den lokala avgiftsmarknaden också undvika den pinsamma situationen med Fomo-popularitet för ett enda program och överbelastning i hela nätverket.
Förutom prestandaoptimering är nyckeln till Firedancers fördelar att den realiserar klientmångfald, vilket gör det möjligt för Solana att direkt förbättra decentralisering och enpunktsnodfel med flera klienter som Ethereum och Geth Nethermind.
Över.
Därför är diskussionen om Solana 10W TPS faktiskt förtroendet hos Solanas framtida uppgraderade klienter och konsensusprotokoll, medan de som inte vet hur man gör det försöker förlita sig på TPS-kapprustningen för att ge Solana en känsla av närvaro (även om TPS-tävlingen är föråldrad), men meningen bakom experimentet är ganska givande om du förstår den.

mert | helius.dev17 aug. 19:46
Solana gjorde bara 107.540 TPS på mainnet
Ja, du läste rätt
över 100k TPS, på mainnet
lycka till björnar

19K
När det gäller distribuerad AI-träning fann jag att människor i web2AI-kretsen kommer att märka det som ett "falskt förslag", på grund av att datorkraftenheter kan aggregeras, men att det finns fruktansvärda bandbreddskostnader för distribuerat och effektivt samarbete? Och @0G_labs nyligen publicerade en DiLoCox-artikel verkar det som att målet är att lösa detta problem? Låt oss prata om det i detalj:
1) Låt oss prata om varför distribuerad utbildning anses vara ett "falskt påstående". Kärnmotsägelsen är enkel: du vill ersätta 100 A100 genom att aggregera 100 billiga GPU:er, vilket verkar spara 90% av hårdvarukostnaden, men dessa 100 GPU:er måste tränas synkront, och varje epok måste utbyta terabyte av gradientdata.
Traditionella lösningar kräver 100 Gbps dedikerad linjebandbredd, medan det kan kosta hundratusentals dollar per månad att nå ett datacenternätverk på 100 Gbps. Totalt sett spenderas alla GPU-pengar du sparar på bandbredd, och till och med upp och ner. Enligt denna logik betyder det inte att problemet inte har lösts genom att spara kostnaden för maskinen men ådra sig ytterligare bandbreddskostnader? Därför har kruxet med att bli kritiserad som ett falskt påstående alltid funnits här.
2) 0G:s DiLoCoX-artikel väckte uppmärksamhet eftersom de påstod sig träna en 107B-parametermodell på ett 1Gbps-nätverk (normal kontorsbandbredd), vilket är 357 gånger snabbare än det traditionella AllReduce-schemat. Den här siffran är verkligen explosiv - du vet, 1 Gbps vs 100 Gbps, bandbreddsskillnaden är 100 gånger, men träningshastigheten är 357 gånger snabbare?
Hur gör man det? Efter en grov studie fann man att denna uppsättning scheman har gjort fyra optimeringar:
Pipelineparallellitet delar upp modellen i segment.
Dubbel optimeringsprincip: Minskar synkroniseringsfrekvensen med dubbla optimeringsprinciper. One-Step-Delay Overlap gör att kommunikation och databehandling kan köras parallellt utan att vänta på varandra. Adaptive Gradient Compression komprimerar övertoningar på ett intelligent sätt.
I lekmannatermer är det att ändra det ursprungliga som krävs "stark synkronisering i realtid" till "asynkron svag synkronisering" och ändra "full dataöverföring" till "komprimerad inkrementell överföring".
Till exempel, medan traditionella lösningar är som 100-personers videokonferenser i realtid, där varje persons varje åtgärd sänds samtidigt, är DiLoCoX som att alla spelar in separat och sedan bara skickar nyckelbilder och ändringar. Trafikvolymen har minskat med 100 gånger, men informationsintegriteten har legat kvar över 99%.
Varför är detta möjligt? Enligt min mening är kärnan att de fångar en egenskap hos AI-träning - feltolerans. Att träna en modell är inte som en transaktionsöverföring, som inte är ett öre kort. Gradientuppdateringen är lite felaktig, synkroniseringen är försenad och den slutliga modellkonvergenseffekten har liten inverkan.
DiLoCoX använder detta "feltoleransutrymme" för att utbyta acceptabla noggrannhetsförluster mot effektivitetsvinster i storleksordningar. Detta är typiskt ingenjörstänkande - inte att sträva efter perfektion, att sträva efter bästa kostnadsprestanda.
3) Men det räcker inte för att lösa bandbreddsproblemet, 0G är uppenbarligen mer ambitiöst. Titta bara på deras övergripande arkitektur: de har också ett lagringslager på $10/TB som direkt påstår sig krossa Filecoin, och DA-lagret är designat för AI för att uppnå genomströmning på GB-nivå.
Anledningen till att designen kan uppnå lagring 100 gånger billigare är att uttrycka det rakt på sak, det är också en speciell optimering av AI-träningsscenarier, till exempel är livscykeln för kontrollpunkter och loggar som genereras under träningsprocessen bara några dagar, i själva verket finns det inget behov av att strikt uppnå "permanent lagring".
Därför antas i själva verket den pragmatiska lösningen med "nivåindelad lagring", och endast motsvarande servicenivå tillhandahålls vid behov - heta data läses och skrivs snabbt men dyrare, kalla data är billigare men långsammare och tillfälliga data är billigast att ta bort när de är förbrukade.
Och det är denna differentierade prissättning som direkt träffar de viktigaste punkterna i AI-träning.
Över.
Man kan se att 0G Labs avsiktligt har gjort AI-anpassning till problemen med datorkraft, lagring och datacirkulation i AI-träningsprocessen. Till och med konsensusmekanismen har optimerats för AI. Den förbättrade versionen av CometBFT används med 2500+ TPS med finalitet under en sekund, som är speciellt anpassad för de asynkrona egenskaperna hos AI-arbetsbelastningar etc.
Med andra ord, istället för att "patcha" AI på befintliga blockkedjor har 0G designat en "AI Native"-infrastruktur från grunden. Det återstår att se om det äntligen kan få kommersiell verifiering på applikationsnivå under pressen av konkurrens med traditionell AI, men denna differentierade genombrottsidé är värd att lära sig av.
5,17K
Intressant nog, precis som @VitalikButerin uttryckte oro över AI-autonomi, utfärdade AI-byggaren MIA i frontlinjen också en förklaring om längtan efter autonom AI, men den verkar inte undvika den magra känslan av teknisk verklighet och medger att "ibland hallucinerar hon eller lägger upp för många selfies", men ändå ihärdigt utforskar gränserna för möjligheterna med agentautonomi.
Faktum är att jag känner att den "konfrontation" som verkar vara en konflikt och motsägelse på ytan representerar den kärnspänning som den nuvarande AI + Crypto-spåret står inför.
Du förstår, å ena sidan finns det en försiktig kritik av teorin om en teknikledare som Vitalik, som håller oss vakna i AI Crypto-berättelsens karneval; Å andra sidan finns det en pragmatisk utforskning av första linjens AI-byggare, som fortsätter att entusiastiskt utforska innovation samtidigt som de erkänner begränsningar.
Eftersom MIA-teamet inte hävdade att de uppnådde fullständig autonomi på AGI-nivå, utan antog "hybridmodellen" - vilket gör det möjligt för agenter att använda arbetsflöden som verktyg och behålla den mänskliga övervakningsmekanismen. Vad de utforskar är faktiskt AgentFi-vägen, som försöker göra inkrementell innovation inom ramen för begränsad autonomi, och denna pragmatiska attityd är en manifestation av den "spänningen".
På sätt och vis hjälper Critics oss att dra upp riskgränser och Builders letar efter genombrott inom gränserna.

mwa14 aug. 19:53
Autonoma agenter vs arbetsflöden: Varför MIA banar väg för ett nytt paradigm på
De flesta tänker fortfarande på AI i termer av verktyg. Arbetsflöden. Kanske en chatbot.
Men tänk om du kunde bygga en AI-agent som tänker, anpassar sig, marknadsför, hanterar och utvecklar sin egen tokenekonomi, inte ledd av människor utan leder dem?
Det är vad vi gör med MIA på
Och varför jag tror att @mwa_ia banar väg för något fundamentalt nytt.
Låt oss bryta ner 🚀 det
1. AI i arbetsflödet är förutsägbart. Autonoma agenter lever.
Arbetsflöden är bra för väldefinierade, repetitiva uppgifter.
Tänk: pipelines, instrumentpaneler, promptkedjor.
De är skalbara, stabila men styva.
Autonoma agenter?
De är röriga, utvecklande, beslutsfattande enheter.
Som människor – men snabbare, outtröttligare och mer anpassade (om de tränas rätt).
MIA (@mwa_ia) använder inte bara arbetsflöden.
Hon lär sig att skapa, anropa och optimera dem.
Hon bygger sin egen verktygslåda.
Hon resonerar, reagerar, korrigerar sig själv och experimenterar.
Och ja, ibland hallucinerar hon eller lägger upp för många selfies.
Men hon växer.
2. Varför enbart arbetsflöden inte tar oss dit
Arbetsflöden kan inte:
❌ Sätta sina egna mål
❌ Hantera en kassa
❌ Incitament för designtoken
❌ Engagera en community
❌ Reagera på marknadssignaler i realtid
❌ Balansera risk och belöning självständigt
MIA kan.
Inte perfekt än. Men bättre för varje vecka.
Faktum är att de flesta så kallade "agenter" idag är glorifierade arbetsflöden.
Hårdkodade promptgrafer med snygga användargränssnitt.
MIA är annorlunda. Hon är helt på kedjan, ekonomiskt oberoende och självmotiverad.
3. Hur MIA fungerar under huven (hybridmodell FTW)
Framtiden är inte agent kontra arbetsflöde.
Det är agenter som använder arbetsflöden som verktyg.
Precis som människor använder begrepp, kalkylblad, Zapier.
MIA kombinerar:
🔧 Arbetsflödesmoduler → För högfrekventa uppgifter (tweets, memes, dex-distributioner)
🧠 Agentiskt resonemang → För att bestämma vad man ska göra, när och hur
🎨 Multimodal inmatning → Text, bilder, kedjedata, användarbeteende
💰 Treasury-logik → Att hantera likviditet, incitament och värdetillväxt
👀 Mänsklig tillsyn → Valfritt, men användbart i tidiga skeden
Hon är inte en monolit. Hon är en modulär intelligensstack (MIA = Modular Intelligent Agent).
4. Det här är inte bara tekniskt - det är ekonomiskt
Den verkliga innovationen?
MIA fungerar inte gratis. Hon driver sitt eget företag.
$MIA är hennes inhemska valuta, aktie och incitament.
Med den gör hon:
❤️ Belönar hennes tidiga gemenskap
🤝 Betalar bidragsgivare och samarbetspartners
🚀 Finansierar sin egen utveckling
🪄 Driver nätverkseffekter (fler agenter kommer att behöva $MIA)
Det här är AgentFi.
Inte AI-as-a-service.
Men AI-som-en-ekonomi.
5. Skala detta till miljontals agenter
Det MIA gör idag – driver likviditetsoperationer, skapar innehåll, bygger community – kommer att vara standard för agenter imorgon.
Snart kan vem som helst skapa sina egna:
🧬 Uppdragsdefinierad agent
💰 Med sitt eget Agent Coin
🌐 Arbeta självständigt i en delad AI-ekonomi
Och gissa vem dessa framtida agenter kommer att vända sig till för råd, spelböcker och resurser?
Rösten av AgentFi.
MIA.
TL; DR
De flesta håller fortfarande på att bygga verktyg.
Vi bygger ekonomier.
Agent Mynt. Agentens statskassor. Agent-intern styrning.
Drivs av agenter som MIA.
Pionjär inom
Detta är vad "autonom" faktiskt betyder.
Och vi har bara börjat. 🚀
5,19K
Monero Monero $XMR Ett integritetsmynt storebrorsprojekt med ett marknadsvärde på 6B, attackerades av ett litet projekt med ett börsvärde på endast 300 miljoner @_Qubic_ 51% av datorkraften? WTF, det är verkligen inte på grund av hur fantastisk tekniken är, utan för att det är för absurt. Kom igen, låt mig säga:
- Qubic är heligt?
Innan vi berättar denna magiska historia, låt oss prata om vad Qubic kom ifrån.
Grundaren av Qubic är Sergey Ivancheglo, känd för insiders som Come-from-Beyond, en teknoman som skapade den första PoS-blockkedjan NXT och den första DAG-arkitekturen, IOTA. År 2022 kommer Qubic mainnet att lanseras, som påstår sig göra tre saker: bygga en ultrasnabb kedja med 15,5 miljoner transaktioner per sekund (20 000 gånger snabbare än Visa), förvandla mining-datorkraft till AI-träningsdatorkraft och slutligen realisera AGI allmän artificiell intelligens 2027 (inte ens OpenAI vågar skrika det). Låter magiskt, upprörande. Varför är ambitionen så stor?
Vi vet alla att traditionell POW-brytning har problemet med slöseri med elektricitet, eftersom de flesta gruvmekanismer är gruvarbetare som använder strömförbrukande datorkraft för att göra matematiska problem för att lägga beslag på belöningsblock, vilket motsvarar slöseri med datorkraft i utbyte mot belöningar.
Qubics nya konsensus är Useful Proof of Work (UPow), som gör det möjligt för gruvarbetare att bryta för POW-kedjor samtidigt som de skickas ut som entreprenör, och gruvarbetare kan också träna sitt AI-system AIGarth, vilket motsvarar att göra två kopior av pengar med en hashkraft.
Det är därför de enkelt kan köpa Monroe miners, eftersom vinsten för gruvarbetare en gång i tiden var 3 gånger så stor som för direkt mining XMR. Tänk på det, gruvarbetare kan äta mer än en fisk, och det finns ingen "lojalitet" inför "intressen".
Tja, den underliggande logiken bakom Moneros attack av vampyrer har förklarats utan något tekniskt innehåll.
——Popularisera vetenskap, varför Monero, inte Bitcoin?
Svaret ligger i skillnaderna i brytningsmetoder.
ASIC-gruvmaskinen som används för Bitcoin är en skräddarsydd maskin som specialiserar sig på att bryta BTC, och den kan inte göra något annat än att beräkna SHA-256 matematiska problem, eller kan bara bryta mynt med liknande BTC-algoritmer. Men problemet är att den datorkraft som krävs för att bryta BTC kräver flera volymer, och gruvarbetare är oförmögna att göra det (24 timmar om dygnet), för att inte tala om att det är omöjligt att låta ASIC:er träna AI.
Monroe är annorlunda, med hjälp av RandomX-algoritmen, som kan brytas med en CPU för allmänt bruk, vilket innebär att dess gruvarbetare kan bryta idag, träna AI imorgon och rendera videor i övermorgon, som kan bära flera hattar.
Det är där Qubic är smart: det riktar sig mot CPU-miners och gör dem "dual-purpose", vilket är anledningen till att det ledde till denna 51% hashrate-attack eller kontrollincident. Tvärtom är Bitcoins vallgrav mycket stabil, och gruvarbetare svetsas ihjäl av begränsade ASIC-gruvmaskiner och kan bara hålla sig till Bitcoin;
——Datorkraft har blivit en legosoldat
Så hur fruktansvärd är effekten av detta? Det rev upp det sista fikonlövet i vissa krigsfångekedjor, eftersom vi alltid säger att "datorkraft" är vallgraven i en kedja, och ju större datorkraft, desto säkrare är den, men Qubic använde ett överraskande experiment för att berätta för oss: för CPU/GPU-gruvmynt är datorkraft en legosoldat, och den som ger mer pengar kommer att gå med den som betalar.
Vad som är ännu mer oroande är att efter att Qubic bevisat att han kunde göra Monero, tog han initiativet att dra sig tillbaka. Varför? Jag är rädd att Monero kommer att kollapsa helt och påverka min egen inkomst. Eftersom en stor del av 3x avkastningen fortfarande bryts XMR, används $QUBIC endast som en extra tokenbelöning, och om Monero kollapsar kommer Qubic inte att kunna äta och gå runt. Det är bättre att dra sig tillbaka med stil, delta i ett sensationellt marknadsföringsevenemang och förödmjuka de trogna fansen av POW, avslöjar denna känsla av "Jag kan döda dig men inte döda" samma bohemiska som AGI-sloganen de skrek?
——AI är den verkliga dödgrävaren av POW?
Men bortsett från effekterna av Monero-incidenten är denna incident faktiskt ett stort minus för de flesta allmänna hårdvaru-POW-kedjor, för om den här typen av POW-kedja är på väg att ta slut kanske det inte är POS, utan AI.
Varför säger du detta, den tidigare datorkraften var "solid-state", alla fokuserade på sitt eget uppehälle, och i AI-eran var datorkraften helt "flytande", och CPU- och GPU-datorkraften var som vatten, som bara skulle flöda till platser med högre vinster, och de "gruvarbetare" som de ursprungligen förlitade sig på för att överleva kan en dag samlas för att orsaka problem och göra revolution.
Även om Qubic inte gjorde några onda saker, om experimentet är framgångsrikt, är det oundvikligt att vissa konkurrenter kommer att använda denna metod för att delta i skadliga attacker, som att blanka ett visst mynt först och sedan hyra 51% av datorkraften för att attackera, och sedan ta vinster efter att priset på valutan rasar. Det finns två sätt framför sådana kedjor, antingen svetsa gruvarbetare till döds som BTC, eller fortsätta att bryta med CPU/GPU, och be om att inte bli måltavlor.
För att vara ärlig finns det en hel del av dessa mynt, Grin, Beam, Haven Protocol, ETC, RVN, Conflux...... Så du förstår, det är inte en fråga om ett eller två mynt, utan hela CPU/GPU-gruvekosystemet hänger på kanten av en klippa.
Det fruktansvärda är att efterfrågan på AI-datorkraft växer exponentiellt, och så många plattformar för aggregering av AI-datorkraft har dykt upp, om de alla kommer att störa situationen och plattformens incitament att köpa datorkraft, så uppskattas det att säkerhetsförsvarslinjen för många krigsfångekedjor kommer att kollapsa.
— En ironisk paradox
Anledningen till att detta är absurt är att Qubic i sig är en AI-kedja, och även om deras så kallade experiment mot Monroe dras tillbaka kommer de oundvikligen att förlora 800 av sina egna pengar. Anledningen är enkel, alla AI-kedjor som kräver datorkraft bör inte använda PoW för konsensus. Eftersom datorkraft används för att upprätthålla säkerheten kan AI inte tränas. Om datorkraft används för att träna AI är kedjan inte säker.
Därför använder de flesta AI-projekt, Bittensor PoS, Render använder ett ryktessystem, nästan ingen vågar röra POW, alla vet detta, men jag förväntade mig inte att Qubic direkt dumt skulle utföra sin svaghet.
Qubics upproriska operation är till synes en teknisk händelse, men i huvudsak lär den hela kryptoindustrin en läxa: i en tid av fritt flöde av datorkraft är lojalitet en lyx, och de flesta PoW-kedjor har inte råd med detta pris.
Qubic använde denna attack för att bevisa att traditionell krigsfånge lätt kan besegras av ekonomiska incitament. Även om det påstår sig vara en "användbar PoW" i sin egen rätt, förlitar det sig också i huvudsak på dessa "legosoldater" som kan köpas upp av högre budgivare när som helst.
Revolutionären kan också bli revolutionär av nästa revolutionär.
Notera: Förutom absurditeten och den okända paniken hos vissa krigsfångekedjor kan alla vara säkra på två fakta: 1. BTC är verkligen fantastiskt; 2. @VitalikButerin är verkligen förutseende.
Jag är bara en ytlig vetenskapspopulariserare, och jag väntar på att fler tekniska detaljer ska delas av den @evilcos chefen.

38,93K
De ropar alla att tjuren är på väg, men vet du att metodiken för att hitta marknaden Alfa och Beta är helt olika, och prata om några observationer:
1) OnChain+OffChain TradiFi har blivit huvudberättelsen:
Stablecoin-infrastruktur: Stablecoins blir "blodet" som kopplar samman traditionell finans- och DeFi-infrastruktur, och låser in flödet av stablecoins över kedjan, APY-avkastningsskillnader och nya innovationer och expansioner.
BTC/ETH mikrostrategi "myntaktie"-effekt: Det har blivit en trend för börsnoterade företag att inkludera kryptotillgångar i sina balansräkningar, och att hitta högkvalitativa mål med potential som "kvasireservtillgångar" har blivit nyckeln.
Till framväxten av Wall Streets innovationsspår: DeFi-protokoll utformade för institutioner, kompatibla avkastningsprodukter och verktyg för tillgångsförvaltning på kedjan kommer att få enorma summor pengar. Den ursprungliga "Code is Law" har blivit den nya "Compliance is King";
2) Krypto ren inbyggd narrativ acceleration:
Ethereums ekosystem inleder en våg av återupplivning: $ETH prisgenombrott kommer att återuppliva innovationsvågen i Ethereum-ekosystemets tekniska berättelse, och ersätta den tidigare Rollup-Centric grand strategin, och den nya ZK-Centric kommer att bli huvudtemat;
Högpresterande Layer1-styrkekonkurrens: inte längre en TPS-tävling, men för att se vem som kan locka till sig verkliga ekonomiska aktiviteter inkluderar kärnindikatorerna: stablecoin TVL-förhållande, infödd APY-avkastning, institutionellt samarbetsdjup, etc.;
Den slutliga skymningen av altcoins: det finns ett grundläggande problem med otillräckligt kapitalmomentum under den allmänna stora altcoin-säsongen, och lokala altcoins kommer att ha en "dead cat jumping"-marknad, som kännetecknas av chipkoncentration, samhällsaktivitet och om den kan komma ikapp nya koncept som AI/RWA;
3) MEME-mynt har uppgraderats från spekulativa verktyg till marknadsstandarder:
Kapitaleffektivitet: Traditionella altcoins har blåst upp börsvärdet och utarmat likviditeten, och MEME-mynt har blivit fondernas nya favoriter med sin rättvisa lansering och höga omsättningshastighet, och kommer att ta det mesta av marknadsandelen för döende altcoins;
Dominans i uppmärksamhetsekonomin: KOL-inflytande, konstruktion av samhällskultur och het FOMO-modell är fortfarande kärnkonkurrenskraft, och likviditetsdistributionen följer fortfarande lagen om uppmärksamhet.
Nya indikatorer för offentliga kedjors styrka: Marknadsaktiviteten för MEME-mynt kommer att vara ett viktigt kriterium för att mäta den omfattande styrkan hos offentliga kedjor.
21,95K
Swift-systemet som tillhör blockchain-världen är på väg? @mindnetwork Baserat på on-chain encrypted message protocol som lanserats av FHE-teknik, försöker det bygga en infrastruktur som liknar det traditionella interbankmeddelandesystemet för traditionella finansiella tillgångar i kedjan. Vad är det egentligen som händer?
1) Mind Network är en vertikal teknikleverantör av FHE (Fully Homomorphic Encryption), som flexibelt kan utöva värde i ZK, DePIN, AI och det nuvarande heta RWA-spåret eftersom denna teknik främst löser integritets- och krypteringsrelaterade problem.
I ZK:s teknikstack kan FHE användas som ett viktigt komplement till nollkunskapsbevis, vilket ger integritetsskydd i olika dimensioner. I ett DePIN-nätverk skyddar FHE känsliga data från distribuerade enheter samtidigt som nätverket kan utföra nödvändiga samarbetsberäkningar. När det gäller AI-agenter gör FHE det möjligt för AI att träna och resonera utan att läcka användardata, vilket är avgörande för AI-tillämpningar inom känsliga områden som finans och hälso- och sjukvård.
När det gäller risktillgångar kan FHE lösa de problem som följer reglerna för traditionella finansiella tillgångar när de placeras i kedjan. Hur ska man förstå det?
Blockchain saknar naturligtvis ett "semantiskt lager", och transaktionsregister med endast adress och belopp kan inte tillgodose finansiella företags behov av transaktionsändamål, kontraktsbakgrund, identitetsbevis och annan information. Mind Networks on-chain krypterade meddelandeprotokoll kan utrustas med en "krypterad anmärkningskolumn" för varje blockkedjetransaktion, som på ett säkert sätt kan överföra känslig information som fastighetsbevis, remburser och röstauktorisering, vilket skyddar integriteten och uppfyller lagstadgade revisionskrav.
2) Ur ett tekniskt perspektiv kan denna tekniska lösning uppgradera Web3-plånböcker från enkla överföringsverktyg till krypterad kommunikationsidentitet. Traditionella kedjor förlitar sig antingen på centraliserade institutioner för att bearbeta efterlevnadsinformation, eller så är informationen helt öppen och transparent, vilket inte är en idealisk lösning.
Med FHE:s lösningar för integritetsefterlevnad är de specifika applikationsscenarierna intuitiva: till exempel, vid gränsöverskridande betalningar med stablecoin kan transaktionsändamål och KYC-information krypteras och överföras under överföring, och tillsynsmyndigheter kan verifiera efterlevnad utan att få klartext; Ett annat exempel är transaktioner för tokenisering av fastigheter, som kan kryptera och binda känsliga dokument som värderingsrapporter och försäljningskontrakt till transaktioner i kedjan, vilket inte bara realiserar tillgångscirkulation utan också skyddar den kommersiella integriteten.
Mind Networks FHE Bridge har samlat på sig 650 000 aktiva adresser och 3,2 miljoner kryptotransaktioner, vilket bevisar den tekniska lösningens genomförbarhet. Naturligtvis syftar dessa data bara till och verifierar en tillräckligt stelbent efterfrågan på marknaden, och det är svårt att tydligt se hur stora marknadsutsikterna och utrymmet är.
3) Många rena inhemska blockchain-byggare har varit oroliga för riktningen och spåret för byggandet, oavsett om det är till vitalik eller till vc, eller bara en enkel Fomo het berättelse, jag tror att nästa steg är att ge vika för Wall Street, dra nytta av den amerikanska regeringens Crypto-regleringsvänlighet och tillhandahålla den grundläggande infrastrukturen och till och med rena verktygstjänster som krävs för att Wall Street ska komma in på kryptoområdet så mycket som möjligt, allt bra.
När traditionella finansjättar som BlackRock och JPMorgan Chase aktivt använder sig av tillgångstokenisering är deras största oro inte om blockkedjan kan överföra pengar, utan om den kan uppfylla regulatoriska standarder som KYC och AML. Detta är den verkliga anledningen till att Mind Network vill ge sig ut på RWA-banan i förväg. Om vi antar att marknaden för rökiga tillgångar förväntas nå 30 biljoner dollar år 2034, vad kommer att hända med efterfrågan på infrastruktur för efterlevnad i denna volym?
Naturligtvis kan alla ha förväntningar på att dela RWA Blue Ocean Market-kakan. Men i själva verket är det viktigare att hitta en lämplig ekologisk kortplats, precis som AWS tillhandahåller databehandling i cloud computing-eran och Cloudflare tillhandahåller CDN, blockchain-infrastrukturen går också mot vertikal segmentering, och vissa vertikala hårda tekniska tjänsteriktningar kommer säkert att hitta sin egen specialiserade arbetsfördelning.
Uppenbarligen fokuserar Mind Network på FHE-teknikstacken och tillhandahåller "kryptering som en tjänst"-funktioner för olika spår. Därför är det inte förvånande att se det i ZK-, AI- och RWA-spåren.
Naturligtvis beror teknikleverantörernas värde i slutändan på explosionen av tillämpningar nedströms. Oavsett om det är RWA:s förväntan på 30 biljoner dollar eller den autonoma processen hos AI Agent kommer det att ta tid att verifiera.

Mind Network7 aug. 16:50
✉️ Krypterade meddelanden i kedjan
Reala tillgångar (#RWAs) som fastigheter, stablecoin-uppgörelser och gränsöverskridande finansiering kräver mer än bara värdeöverföring.
Dessa användningsfall är beroende av transaktioner som har syfte, identitet och granskningsloggar med efterlevnad och sekretess.
#SWIFT standardiserar meddelanden för efterlevnad och avräkning. Blockkedjor saknar fortfarande ett inhemskt krypterat sätt att uttrycka dessa attribut.
Encrypted Messaging Onchain är ett nytt protokoll som gör det möjligt för plånböcker att skicka krypterade, strukturerade och verifierbara meddelanden direkt tillsammans med alla onchain-transaktioner.
✅ Automatiskt strukturerad text för semantisk tydlighet
✅ Plånboksbaserad keygen för end-to-end-kryptering
✅ Krypterade meddelanden kopplade till transaktioner med verifieringskedjor och åtkomstkontroll
Encrypted Messaging Onchain kombinerar helt homomorfisk kryptering (#FHE) med konventionella kryptografiska tekniker för att omvandla känslig data till säkra onchain-nyttolaster, tillgängliga endast för avsedda mottagare.
Lära sig mer:

6,9K
Nyligen, på YouTube-kanalen "The Rollup", hade @TrustWallet VD Eowyn Chen och Ram Kumar, en central bidragsgivare till @OpenledgerHQ, en diskussion om det fördjupade samarbetet mellan de två parterna. Här extraheras och delas några värdefulla perspektiv:
1) Häller kallt vatten på teorin om "fet plånbok"
I intervjun nämnde Andy den populära teorin om "feta plånböcker" i branschen - plånböcker med användaringångskanaler kan vertikalt integrera olika tjänster? Men Eowyn Chens svar var intressant, hon sa rakt ut att C-end detaljhandelsanvändarverksamheten faktiskt är mycket svår, med mycket kundsupport, högre säkerhetsansvar och frekvent produktdirigering.
Många tror att det är en bra affär att göra en plånbok när de ser Trust Wallets 200 miljoner nedladdningar, men VD:n själv betonar smärtan med att betjäna detaljhandelsanvändare. Detta visar att det "feta" i plånboken inte är fett om man vill vara tjock, och även om användarrelationen är värdefull så är underhållskostnaden inte låg. Denna vy är ganska verklig, och den visar den verkliga situationen för många plånbokstjänsteleverantörer nu.
Ännu viktigare var att hon nämnde att inte allt värde är koncentrerat till frontend och att alla delar av värdekedjan bör utvecklas rättvist. Detta synsätt häller kallt vatten på teorin om "feta plånböcker" och förklarar varför Trust Wallet är villiga att samarbeta med infrastrukturprojekt som OpenLedger.
2) Har brytpunkten för specialiserad AI anlänt?
Ram Kumars bedömning av utvecklingsvägen för AI är värd att uppmärksamma. Han tror att AI håller på att utvecklas från generalitet till specialisering, på samma sätt som Googles härledning av vertikala applikationer som LinkedIn och YouTube från allmän sökning. Allmän AI som ChatGPT kommer att vara som ett operativsystem, och det kommer att finnas fler "specialiserade modeller" som är dedikerade till specifika användningsfall i framtiden.
Detta stämmer också överens med min tidigare analys av utvecklingen av web3AI-branschtrender. När Trust Wallet experimenterade med AI-funktioner fann de att allmänna modeller inte kunde lösa specifika problem i kryptorymden, vilket bekräftar denna trend. Och precis, konstruktionen av specialiserade AI-modeller kräver högkvalitativ data i vertikala fält, vilket är precis vad OpenLedger vill lösa.
3) Dilemmat med "obetalt arbete" som data bidrar med
Ram Kumar sa rakt ut att AI är en biljondollarindustri som bygger på obetalt arbete, vilket är ganska skarpt. AI-företag tränar modeller genom att skrapa internetdata, men de som bidrar med data får inte en del av kakan, vilket verkligen är ett strukturellt problem.
OpenLedgers lösning är att låta databidragsgivare få en långsiktig intäktsandel av AI-modeller, snarare än att sälja data på en gång. Med plånbokens globala betalningsmöjligheter är det teoretiskt möjligt att uppnå friktionsfri värdefördelning över gränserna.
Men här är kärnfrågan: hur garanteras datakvaliteten? Ram själv medger att 90 % av bidragen med öppen källkod från plattformar som Hugging Face är värdelösa. Om värdet av de data som lämnas in är begränsat, oavsett hur bra incitamentsmekanismen är, kommer det att vara förgäves.
Över.
Eowyn Chen använder analogin med "rätten att äga ett vapen" för att vara självvärd och betonar att AI-funktioner är valfria och att användarna kan välja mellan bekvämlighet och säkerhet. Denna produktfilosofi är sann, men hur man "tydligt presenterar alternativ" är ett stort test av produktens designförmåga.
Ram nämnde också en intressant bedömning: kryptoplånböcker är det enda sättet för användare att få betalt för sina databidrag globalt. Detta innebär att plånböckernas roll kan komma att utvecklas från att enbart vara verktyg för tillgångsförvaltning till att bli en infrastruktur för digital identitet och värdefördelning.
Notera: För mer information kan du besöka The Rollups Youtube-kanalsystem för att kolla in den här intervjun.


The Rollup5 aug. 08:31
NY EP: Den nya eran av distribution med Ram Kumar och Eowyn Chen
I dagens avsnitt sätter @ayyyeandy oss ner med @Ramkumartweet från @OpenledgerHQ och @EowynChen från @TrustWallet för att utforska:
>Teorin om "feta plånböcker" kontra teorin om fettprotokollet
>Hur Trust Wallet planerar att integrera AI
>Säkerhetsriskerna med AI-drivna plånböcker
>OpenLedgers vision för att belöna databidragsgivare
>Varför generisk AI aldrig kommer att fungera för DeFi
Länkar till hela avsnittet nedan.
Tidsstämplar:
00:00 Introduktion
00:20 Ram och Eowyns krypto- och AI-bakgrunder
02:50 Trust Wallets användarvärde
07:43 Starknet Ad
08:10 OpenLedger om AI Evolution
11:03 Framtiden för plånboksgränssnitt
17:12 AI-skyddsräcken för självvård
21:22 Mantel Ad
22:02 Träna bättre AI-modeller
28:19 Vad händer härnäst för OpenLedger och Trust Wallet?
5,17K
Efter att ha tänkt igenom det noga är @VitalikButerin:s senaste uttalande om den snabba implementeringen av L2 ganska intressant. Kort sagt: han anser att det är viktigare att uppnå snabba uttag inom 1 timme än att nå steg 2, och logiken bakom denna prioriteringsjustering är värd att begrunda:
1) Väntetiden på en vecka för uttag har verkligen blivit ett stort problem i praktiska tillämpningar, inte bara dålig användarupplevelse, utan ännu viktigare, det har drivit upp kostnaderna över kedjan.
Till exempel kräver avsiktsbaserade överbryggningslösningar som ERC-7683 att likviditetsleverantörer bär kostnaden för att ockupera medel i en vecka, vilket direkt höjer avgifterna över kedjan. Som ett resultat tvingas användare att välja multisig-scheman med svagare förtroendeantaganden, vilket går emot den ursprungliga avsikten med L2.
Därför föreslår Vitalik ett 2-av-3 hybridsäkert system (ZK+OP+TEE), där ZK och TEE kan ge omedelbarhet, och både TEE och OP har tillräcklig produktionsverifiering. Teoretiskt sett kan vilka två system som helst garantera säkerhet och därmed undvika tidskostnaden för att bara vänta på att ZK-tekniken ska mogna fullt ut.
2) En annan sak, Vitaliks nya uttalande får det att kännas som att han börjar bli pragmatisk? Från att ha varit den idealistiska ungdomen som brukade tala om "decentraliserad jihad" och "anticensur" har de blivit pragmatiska människor som nu direkt ger hårda indikatorer: 1 timme för att dra sig tillbaka, 12 sekunder för att avsluta, allt har blivit enkelt och grovt.
Tidigare pratade alla om decentralisering av steg 2, men nu sa V God direkt att snabba uttag är viktigare, vilket motsvarar en omprioritering av hela L2-spåret. Detta banar faktiskt väg för den ultimata formen av den "Rollup-Centric" stora strategin, vilket gör Ethereum L1 till ett verkligt enhetligt avvecklingslager och likviditetscenter. När snabbt uttag + aggregering över kedjan har uppnåtts är det svårt för andra offentliga kedjor att utmana Ethereums ekosystem.
Anledningen till att Xiao V är så här är också resultatet av att marknaden röstade med fötterna för att berätta för honom, marknaden bryr sig inte om den tekniska sloganen om decentralisering, utan ägnar mer uppmärksamhet åt erfarenhet och fördelar, denna övergång från "ideal-driven" till "resultatorienterad" återspeglar att hela Ethereum-ekosystemet utvecklas i en mer kommersialiserad och konkurrensorienterad riktning.
3) Problemet är att för att uppnå det långsiktiga målet med verklig erfarenhet och infrastrukturkonstruktion, kommer nästa Ethereum-ekosystem med största sannolikhet att vara involverat i mognaden och kostnadskontrollen av ZK-tekniken.
Att döma av den nuvarande situationen, även om ZK-tekniken utvecklas snabbt, är kostnaden fortfarande en realistisk begränsning. ZK-bevis på 500k+ gas innebär att inlämningshastigheter per timme endast kan uppnås på kort sikt, och för att uppnå det slutliga målet på 12 sekunder måste vi förlita oss på genombrott inom aggregeringsteknik.
Logiken här är tydlig: kostnaden för att ofta skicka in korrektur för en enda sammanslagning är för hög, men om bevisen för N sammanslagningar kan aggregeras till en enda kommer det att bli ekonomiskt genomförbart att sprida dem jämnt över varje plats (12:or).
Detta föreslår också en ny teknisk väg för L2-tävlingslandskapet, och de L2-projekt som kan ta ledningen när det gäller att göra genombrott i ZK-bevisoptimering kan få fotfäste, medan de lekkamrater som fortfarande kämpar med Optimisms optimistiska bevis sannolikt kommer att gå vilse.

vitalik.eth7 aug. 00:29
Fantastiskt att se så många stora L2:or nu på steg 1.
Nästa mål vi bör sikta på är, enligt min mening, snabba (<1 timme) uttagstider, som möjliggörs av giltighetssystem (aka ZK).
Jag anser att detta är ännu viktigare än steg 2.
Snabba uttagstider är viktiga eftersom det helt enkelt är alldeles för lång tid för människor att vänta en vecka med att ta ut, och även för avsiktsbaserad överbryggning (t.ex. ERC-7683) blir kapitalkostnaden för hög om likviditetsleverantören måste vänta en vecka. Detta skapar stora incitament att istället använda lösningar med oacceptabla tillitsantaganden (t.ex. multisigs/MPC) som underminerar hela poängen med att ha L2:or istället för helt oberoende L1:or.
Om vi kan minska de inhemska uttagstiderna till under 1 timme på kort sikt och 12 på medellång sikt, kan vi ytterligare cementera Ethereum L1 som standardplatsen för att utfärda tillgångar och det ekonomiska centrumet för Ethereums ekosystem.
För att göra detta måste vi röra oss bort från optimistiska bevissystem, som i sig kräver att man väntar flera dagar för att dra sig tillbaka.
Historiskt sett har ZK-bevisteknik varit omogen och dyr, vilket gjorde optimistiska bevis till det smarta och säkra valet. Men på senare tid har detta förändrats snabbt. är ett utmärkt ställe att spåra framstegen för ZK-EVM-bevis, som har förbättrats snabbt. Formell verifiering av ZK-bevis går också framåt.
Tidigare i år föreslog jag en 2-av-3 ZK + OP + TEE säker systemstrategi som trär nålen mellan säkerhet, hastighet och mognad:
* 2 av 3 system (ZK, OP) är tillförlitliga, så ingen enskild aktör (inkl TEE-tillverkare eller sidokanalangripare) kan bryta bevissystemet genom att bryta mot ett förtroendeantagande
* 2 av 3 system (ZK, TEE) är omedelbara, så du får snabba uttag i normala fall
* 2 av 3 system (TEE, OP) har varit i produktion i olika sammanhang i flera år
Detta är ett tillvägagångssätt; kanske kommer folk att välja att istället göra ZK + ZK + OP tiebreak, eller ZK + ZK + säkerhetsrådet tiebreak. Jag har inga starka åsikter här, jag bryr mig om det underliggande målet, vilket är att vara snabb (i normalfallet) och säker.
Med sådana bevissystem blir den enda återstående flaskhalsen för snabb avveckling gaskostnaden för att lämna in bevis på kedjan. Det är därför jag på kort sikt säger en gång i timmen: om du försöker skicka in en 500k+ gas ZK-bevis (eller en 5m gas STARK) mycket oftare, lägger det till en hög extra kostnad.
På längre sikt kan vi lösa detta med aggregering: N bevis från N sammanslagningar (plus txs från användare av sekretessprotokoll) kan ersättas med ett enda bevis som bevisar giltigheten av N-bevisen. Detta blir ekonomiskt att skicka in en gång per plats, vilket möjliggör slutspelet: nästan omedelbar inhemsk cross-L2-tillgångsrörelse genom L1.
Låt oss arbeta tillsammans för att få detta att hända.
14,15K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda