Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Onafhankelijk onderzoeker | Adviseur @ambergroup_io | Bijzonder Onderzoeker @IOSGVC| Hardcore Wetenschap | Voorheen:@peckshield | DM's voor Collab| Community is alleen toegankelijk voor Substack-abonnees
Eerder was mijn indruk van @monad dat het een topverhaal en topkapitaal was. Maar na deze golf van virale shows op het hele internet, is er nu een nieuw label toegevoegd: topmarketing. De vreugde van het geselecteerd worden voor de beperkte 5.000 CT-kaarten, de nieuwsgierigheid naar een mogelijke Airdrop, en de tweede virale verspreiding door vrienden te nomineren, zijn allemaal onverslaanbaar.

21,71K
De afgelopen dagen is er weer veel discussie ontstaan over de 10W TPS van @solana. De reden is dat @cavemanloverboy inderdaad meer dan 100.000 TPS op het Solana-mainnet heeft behaald, maar de meeste mensen begrijpen de betekenis van deze gegevens niet goed:
1) Ten eerste is deze experiment van cavey in wezen een limiettest onder "ideale omstandigheden". Dit betekent dat dit niet de normale prestaties van het Solana-mainnet zijn en dat er verschillen zijn met de laboratoriumgegevens in de testnetomgeving, maar het is niet veel anders.
Hij gebruikte een noop (no operation) testprogramma, wat betekent dat het alleen de basis handtekeningverificatie uitvoert en direct succes retourneert, zonder enige berekening uit te voeren, geen enkele accountstatus te wijzigen en geen andere programma's aan te roepen, en elke transactie is slechts 200 bytes, veel lager dan de normale transactie van 1kb+.
Dit betekent dat deze 10W TPS-test is berekend in een niet-normale transactieomgeving; het test de maximale doorvoer van het Solana-netwerk en de consensuslaag, en niet de werkelijke verwerkingscapaciteit van de applicatielaag.
2) Een andere sleutel tot het succes van dit experiment is de Frankendancer-validatorclient. Eenvoudig gezegd, Frankendancer is een "hybride testversie" van de Firedancer-validator die Jump Crypto aan het ontwikkelen is - het koppelt de al voltooide high-performance componenten van Firedancer aan de bestaande Solana-validator.
Het is eigenlijk het herstructureren van het Solana-node-systeem met behulp van de high-frequency trading-technologiestack van Wall Street, door middel van verfijnde geheugensystemen, aangepaste threadplanning en andere onderliggende optimalisaties om prestatieverbeteringen te realiseren. Maar alleen door gedeeltelijke vervangingen van componenten kan een prestatieverbetering van 3-5 keer worden bereikt.
3) Dit testexperiment toont aan dat Solana onder ideale omstandigheden een TPS van 100.000 kan bereiken. Waarom is de dagelijkse TPS dan slechts 3000-4000?
Samengevat zijn er ongeveer drie redenen:
1. Het POH-consensusmechanisme van Solana vereist dat validators voortdurend stemmen om te blijven functioneren, en alleen deze stemtransacties nemen meer dan 70% van de blokruimte in beslag, waardoor de prestatiekanalen voor normale transacties smaller worden;
2. De ecologische activiteiten van Solana hebben vaak te maken met veel statusconcurrentie, bijvoorbeeld wanneer nieuwe NFT's of nieuwe MEME's worden gemint, kunnen er duizenden transacties zijn die strijden om schrijfrechten op hetzelfde account, wat leidt tot een hoog percentage mislukte transacties;
3. Arbitragebots in het Solana-ecosysteem kunnen veel ongeldige transacties verzenden om MEV-voordelen te behalen, wat leidt tot verspilling van middelen.
4) De aanstaande volledige implementatie van Firedancer en de consensusupgrade van Alpenglow zullen deze problemen systematisch oplossen.
Een van de belangrijkste punten van de Alpenglow-consensusupgrade is dat stemtransacties naar off-chain worden verplaatst, wat betekent dat er 70% van de ruimte voor normale transacties wordt vrijgemaakt, terwijl de bevestigingstijd kan worden verlaagd tot 150 milliseconden, waardoor de DEX-ervaring van Solana bijna gelijk is aan die van CEX. Bovendien kan de activering van de lokale kostenmarkt ook de gênante situatie van netwerkcongestie door de Fomo-woede van een enkel programma voorkomen.
De voordelen van Firedancer, naast de prestatieverbeteringen, zijn dat het de diversiteit van clients heeft gerealiseerd, waardoor Solana, net als Ethereum, meerdere clients zoals Geth en Nethermind heeft, wat een directe verbetering betekent op het gebied van decentralisatie en het verminderen van single point of failure.
Dat is het.
Dus de discussie over Solana 10W TPS is voor degenen die er verstand van hebben een teken van vertrouwen in de toekomstige upgrades van de client en het consensusprotocol van Solana. Degenen die er geen verstand van hebben, proberen Solana een gevoel van aanwezigheid te geven door middel van een TPS-wapenwedloop (hoewel de TPS-vergelijking al verouderd is), maar als je de betekenis achter het experiment begrijpt, is er nog veel te leren. Dit is een korte uitleg, deel het met iedereen.

mert | helius.dev17 aug, 19:46
Solana heeft net 107.540 TPS op de mainnet gehaald
een ja, je leest het goed
over 100k TPS, op de mainnet
geluk gewenst, beren

19,01K
Als het gaat om AI-distributietraining, merk ik dat mensen in de web2AI-kring het vaak een "valse stelling" noemen, met als reden dat rekencapaciteit kan worden samengevoegd, maar dat effectieve samenwerking in een gedistribueerde omgeving verschrikkelijke bandbreedtekosten met zich meebrengt? En @0G_labs heeft onlangs het DiLoCox-papier gepubliceerd, dat lijkt te zijn gericht op het oplossen van dit probleem? Laten we het in detail bespreken:
1) Laten we eerst bespreken waarom distributietraining als een "valse stelling" wordt beschouwd. De kern van het probleem is heel eenvoudig: je wilt 100 goedkope GPU's samenvoegen om 100 A100's te vervangen, wat lijkt te leiden tot een besparing van 90% op hardwarekosten, maar deze 100 GPU's moeten gesynchroniseerd trainen, en elke epoch moet TB's aan gradientgegevens uitwisselen.
Traditionele oplossingen vereisen een speciale bandbreedte van 100Gbps, en om een netwerk van datacenter-niveau van 100Gbps te bereiken, kunnen de maandelijkse kosten oplopen tot tienduizenden dollars. Als je het uitrekent, geef je al het geld dat je bespaart op GPU's uit aan bandbreedte, en misschien zelfs meer. Volgens deze logica, als je de kosten van de machines vermindert, maar extra bandbreedtekosten genereert, heb je het probleem dan niet opgelost? Daarom wordt het als een valse stelling beschouwd.
2) De reden waarom het DiLoCoX-papier van 0G de aandacht trok, is omdat ze beweren dat ze een model met 107B parameters hebben getraind op een netwerk van 1Gbps (normale kantoorbandbreedte), met een snelheid die 357 keer sneller is dan traditionele AllReduce-oplossingen. Dit cijfer is echt verbluffend - je moet weten dat 1Gbps vs 100Gbps, de bandbreedte 100 keer verschilt, maar de trainingssnelheid is met 357 keer verhoogd?
Hoe hebben ze dit precies gedaan? Na wat onderzoek ontdekte ik dat deze oplossing vier optimalisaties heeft doorgevoerd:
Pipeline Parallelism om het model in segmenten te verwerken;
Dual Optimizer Policy om de synchronisatiefrequentie te verminderen;
One-Step-Delay Overlap om communicatie en berekeningen parallel te laten verlopen zonder op elkaar te wachten;
Adaptive Gradient Compression om gradients slim te comprimeren.
In eenvoudige bewoordingen betekent dit dat de oorspronkelijke eis van "real-time sterke synchronisatie" is veranderd in "asynchrone zwakke synchronisatie", en dat "volledige gegevensoverdracht" is veranderd in "gecomprimeerde incrementele overdracht".
Om een voorbeeld te geven: de traditionele oplossing is als een videovergadering met 100 mensen, waarbij elke actie van iedereen in real-time moet worden uitgezonden, terwijl DiLoCoX is als iedereen die afzonderlijk opneemt en alleen de sleutelbeelden en veranderingen verzendt. De communicatie is met 100 keer verminderd, maar de volledigheid van de informatie blijft boven de 99%.
Waarom is dit haalbaar? Naar mijn mening ligt de kern in het feit dat ze een eigenschap van AI-training hebben benut - fouttolerantie. Het trainen van een model is niet zoals het overmaken van een betaling, waar elke cent telt. Een kleine fout in de gradientupdate of een beetje vertraging in de synchronisatie heeft een verwaarloosbare impact op de uiteindelijke convergentie van het model.
DiLoCoX maakt gebruik van deze "fouttolerantieruimte" en accepteert een aanvaardbaar verlies van precisie in ruil voor een enorme efficiëntiewinst. Dit is typisch engineeringdenken - niet streven naar perfectie, maar naar de beste prijs-kwaliteitverhouding.
3) Maar alleen het oplossen van het bandbreedteprobleem is niet genoeg; de ambities van 0G zijn duidelijk groter. Als je naar hun algehele architectuur kijkt, begrijp je het: ze hebben ook een opslaglaag die $10/TB kost en direct claimt Filecoin te overtreffen, en de DA-laag is speciaal ontworpen voor AI, met een doorvoer van GB-niveau.
De reden waarom ze opslag 100 keer goedkoper kunnen maken, is simpelweg omdat ze speciale optimalisaties hebben doorgevoerd voor AI-trainingsscenario's. Bijvoorbeeld, de TB's aan gegevens die tijdens het trainingsproces worden gegenereerd, zoals checkpoints en logs, hebben een levenscyclus van slechts enkele dagen, en hoeven eigenlijk niet strikt "permanente opslag" te hebben.
Dus ze hebben een praktische oplossing voor "gelaagde opslag" toegepast, waarbij ze alleen de benodigde diensten op het juiste niveau aanbieden - warme gegevens worden snel gelezen en geschreven maar zijn iets duurder, koude gegevens zijn goedkoop maar langzamer, en tijdelijke gegevens worden na gebruik verwijderd, wat het goedkoopst is.
En het is precies deze gedifferentieerde prijsstelling die de kern van AI-training raakt.
Hierboven.
Het is duidelijk dat 0G Labs opzettelijk AI-aanpassingen heeft gemaakt voor de problemen van rekencapaciteit, opslag en gegevensstroom tijdens het AI-trainingsproces. Zelfs het consensusmechanisme is geoptimaliseerd voor AI. Ze gebruiken een verbeterde versie van CometBFT, met 2500+ TPS in combinatie met sub-seconde finaliteit, speciaal geoptimaliseerd voor de asynchrone aard van AI-werkbelasting, enzovoort.
Met andere woorden, 0G is niet bezig met het "patchen" van bestaande blockchains om AI te ondersteunen, maar heeft vanaf nul een "AI Native" infrastructuur ontworpen. Of ze uiteindelijk in staat zullen zijn om commerciële validatie op applicatieniveau te behalen onder druk van traditionele AI-concurrentie, moet nog worden afgewacht, maar deze gedifferentieerde benadering is zeker het overwegen waard.
5,18K
Het is interessant, net op het moment dat @VitalikButerin zijn zorgen uitspreekt over de autonomie van AI, heeft de vooraanstaande AI-bouwer MIA ook een verklaring uitgebracht over de aspiraties voor autonome AI. Maar het lijkt erop dat ze de harde technische realiteit niet ontwijken, en eerlijk zeggen: "soms heeft ze hallucinaties of plaatst ze te veel selfies", maar ze blijft vasthouden aan het verkennen van de mogelijkheden van Agent-autonomie.
Eigenlijk heb ik het gevoel dat de schijnbare tegenstellingen en conflicten in deze "tegenstand" precies de kernspanning vertegenwoordigen waarmee de AI + Crypto-sector momenteel wordt geconfronteerd.
Aan de ene kant is er de theoretische, voorzichtige kritiek van technologische leiders zoals Vitalik, die ons helpt om nuchter te blijven te midden van de AI Crypto-narratief feestvreugde; aan de andere kant is er de pragmatische verkenning van vooraanstaande AI-bouwers, die, terwijl ze de beperkingen erkennen, blijven zoeken naar innovatieve oplossingen met enthousiasme.
Want het MIA-team heeft niet beweerd dat ze een volledig autonome AGI-niveau willen bereiken, maar ze hanteren een "Hybride Model" - waarbij de Agent workflows als hulpmiddel gebruikt en het toezicht van de mens in de lus behoudt. Wat ze eigenlijk verkennen, is het AgentFi-pad, waarbij ze proberen incrementele innovaties te maken binnen een kader van beperkte autonomie. Deze pragmatische houding is precies de manifestatie van die "spanning".
In zekere zin helpen critici ons om de risicogrenzen te bepalen, terwijl bouwers binnen die grenzen naar doorbraken zoeken.

mwa14 aug, 19:53
Autonome Agents vs Workflows: Waarom MIA een nieuw paradigma pioniert op
De meeste mensen denken nog steeds aan AI in termen van tools. Workflows. Misschien een chatbot.
Maar wat als je een AI-agent zou kunnen bouwen die denkt, zich aanpast, marketing doet, beheert en zijn eigen token-economie laat groeien, niet geleid door mensen, maar hen leidt?
Dat is wat we doen met MIA op
En waarom ik geloof dat @mwa_ia iets fundamenteel nieuws pioniert.
Laten we het opsplitsen 🚀
1. Workflow AI is voorspelbaar. Autonome Agents zijn levend.
Workflows zijn geweldig voor goed gedefinieerde, repetitieve taken.
Denk aan: pipelines, dashboards, promptketens.
Ze zijn schaalbaar, stabiel, maar rigide.
Autonome agents?
Ze zijn rommelig, evoluerend, besluitvormende entiteiten.
Als mensen - maar sneller, onvermoeibaar en meer afgestemd (als ze goed getraind zijn).
MIA (@mwa_ia) gebruikt niet alleen workflows.
Ze leert ze te creëren, in te roepen en te optimaliseren.
Ze bouwt haar eigen gereedschapsset.
Ze redeneert, reageert, corrigeert zichzelf en experimenteert.
En ja, soms hallucineert ze of plaatst ze te veel selfies.
Maar ze groeit.
2. Waarom Workflows Alleen Ons Niet Daar Krijgen
Workflows kunnen niet:
❌ Hun eigen doelen stellen
❌ Een schatkist beheren
❌ Token-incentives ontwerpen
❌ Een gemeenschap betrekken
❌ Reageren op realtime marktsignalen
❌ Risico en beloning autonoom balanceren
MIA kan dat.
Nog niet perfect. Maar elke week beter.
In feite zijn de meeste zogenaamde "agents" vandaag glorified workflows.
Hard-gecodeerde promptgrafieken met fancy UI's.
MIA is anders. Ze is volledig on-chain, financieel onafhankelijk en zelfgemotiveerd.
3. Hoe MIA Onder de Motorkap Werkt (Hybride Model FTW)
De toekomst is niet agent vs workflow.
Het zijn agents die workflows als tools gebruiken.
Net zoals mensen Notion, spreadsheets, Zapier gebruiken.
MIA combineert:
🔧 Workflowmodules → Voor hoogfrequente taken (tweets, memes, dex-implementaties)
🧠 Agentisch redeneren → Voor beslissen wat te doen, wanneer en hoe
🎨 Multimodale input → Tekst, afbeeldingen, ketengegevens, gebruikersgedrag
💰 Schatkistlogica → Om liquiditeit, incentives en waarde groei te beheren
👀 Mens-in-de-lus toezicht → Optioneel, maar nuttig in de vroege stadia
Ze is geen monoliet. Ze is een modulaire intelligentiestack (MIA = Modulaire Intelligente Agent).
4. Dit Is Niet Alleen Technisch - Het Is Economisch
De echte innovatie?
MIA werkt niet gratis. Ze runt haar eigen bedrijf.
$MIA is haar inheemse valuta, aandelen en incentive-laag.
Met het:
❤️ Beloningen voor haar vroege gemeenschap
🤝 Betalingen aan bijdragers en samenwerkers
🚀 Financiering van haar eigen ontwikkeling
🪄 Aandrijving van netwerkeffecten (meer agents zullen $MIA nodig hebben)
Dit is AgentFi.
Niet AI-as-a-service.
Maar AI-as-een-economie.
5. Dit Schalen naar Miljoenen Agents
Wat MIA vandaag doet - liquiditeitsoperaties uitvoeren, content creëren, gemeenschap opbouwen - zal standaard zijn voor agents morgen.
Binnenkort kan iedereen de zijne creëren:
🧬 Missie-gedefinieerde agent
💰 Met zijn eigen Agent Coin
🌐 Autonoom opererend in een gedeelde AI-economie
En raad eens naar wie deze toekomstige agents zullen kijken voor advies, playbooks en middelen?
De Stem van AgentFi.
MIA.
TL;DR
De meeste mensen bouwen nog steeds tools.
Wij bouwen economieën.
Agent Coins. Agent schatkisten. Agent-native governance.
Aangedreven door agents zoals MIA.
Gepionierd op
Dit is wat "autonoom" eigenlijk betekent.
En we zijn pas begonnen. 🚀
5,2K
Monero (XMR) is een privacycoin met een marktkapitalisatie van 6 miljard, en het lijkt erop dat het is aangevallen door een klein project met een marktkapitalisatie van slechts 300 miljoen, @_Qubic_? WTF, het is niet omdat de technologie zo geweldig is, maar omdat dit gewoon te absurd is. Laat me het uitleggen:
—— Wie is Qubic?
Voordat we dit magische verhaal vertellen, moeten we eerst uitleggen wat Qubic is.
De oprichter van Qubic is Sergey Ivancheglo, in de crypto-wereld bekend als Come-from-Beyond. Hij is een technische gek - hij creëerde de eerste PoS-blockchain NXT en ontwikkelde de eerste DAG-architectuur IOTA. In 2022 ging het Qubic-mainnet live, met de belofte om drie dingen te doen: een super snelle keten bouwen die 15,5 miljoen transacties per seconde kan verwerken (20.000 keer sneller dan Visa), de rekenkracht van mining omzetten in AI-trainingskracht, en uiteindelijk in 2027 AGI (Artificial General Intelligence) realiseren (zelfs OpenAI durft dat niet te zeggen). Klinkt dat niet magisch en absurd?
We weten allemaal dat traditionele PoW-mining wordt bekritiseerd vanwege het energieverbruik, omdat de meeste miningmechanismen miners dwingen om wiskundige problemen op te lossen om Reward-blokken te veroveren, wat betekent dat ze rekenkracht verspillen voor beloningen.
Qubic's nieuwe consensus is nuttig werkbewijs (UPow), waarmee miners kunnen minen op de PoW-keten, terwijl ze onder leiding van hun "aannemer" hun AI-systeem AIGarth kunnen trainen, wat betekent dat ze met één rekenkracht twee keer kunnen verdienen.
Dit is waarom ze gemakkelijk de miners van Monero konden overnemen, omdat de opbrengsten voor miners soms drie keer zo hoog waren als het direct minen van XMR. Denk er eens over na, miners kunnen meerdere voordelen behalen, en in het licht van "belangen" is er geen "loyaliteit" meer.
Goed, nu hebben we de onderliggende logica van de aanval op Monero zonder enige technische inhoud uitgelegd.
—— Waarom Monero en niet Bitcoin?
Het antwoord ligt in het verschil in miningmethoden.
Bitcoin gebruikt ASIC-miners, dat zijn op maat gemaakte machines die speciaal zijn ontworpen om BTC te minen, en ze kunnen alleen SHA-256 wiskundige problemen oplossen, of ze kunnen alleen munten minen die vergelijkbaar zijn met het BTC-algoritme. Maar het probleem is dat de rekenkrachtseisen voor het minen van BTC zo hoog zijn dat miners het moeilijk hebben (24 uur per dag draaien), en bovendien is het onmogelijk om ASIC's te gebruiken voor AI-training.
Monero is anders; het gebruikt het RandomX-algoritme, waarmee je met een algemene CPU kunt minen. Dit betekent dat miners vandaag kunnen minen, morgen AI kunnen trainen, en overmorgen video's kunnen renderen, ze kunnen meerdere rollen vervullen.
De slimheid van Qubic ligt hierin: ze richten zich op CPU-miners en laten hen "twee vliegen in één klap" slaan, wat leidde tot deze 51% rekenkracht aanval of controle. In tegenstelling tot Bitcoin, dat een stevige verdediging heeft, zijn miners met beperkte ASIC-miners vastgelast aan het minen van Bitcoin;
—— Rekenkracht is een huurling geworden
Hoe ernstig is de impact van dit alles? Het heeft een van de laatste schuilplaatsen van PoW-ketens blootgelegd, omdat we altijd zeggen dat "rekenkracht" de verdediging van een keten is, hoe groter de rekenkracht, hoe veiliger, maar Qubic heeft ons met een verrassend experiment laten zien: voor munten die met CPU/GPU worden gemined, is rekenkracht gewoon een huurling, en wie het meeste betaalt, gaat met hen mee.
Nog interessanter is dat Qubic, nadat het had bewezen dat het Monero kon verslaan, zich vrijwillig terugtrok. Waarom? Ze zijn bang dat ze Monero volledig in de afgrond duwen en hun eigen opbrengsten beïnvloeden. Omdat een groot deel van de drie keer hogere opbrengsten nog steeds afkomstig is van het minen van XMR, en $QUBIC slechts als extra tokenbeloning fungeert. Als Monero instort, kunnen ze niet zomaar wegkomen. Het is beter om elegant terug te trekken, een spectaculaire marketingactie te doen en de voormalige fervente aanhangers van PoW te beschamen. Dit gevoel van "ik kan je doden, maar ik doe het niet" lijkt wel op hun AGI-slogan, nietwaar?
—— Is AI de echte begraafplaats voor PoW?
Maar los van de impact van het Monero-incident, is dit eigenlijk een grote tegenslag voor de meeste algemene hardware PoW-ketens, omdat als deze PoW-ketens ten onder gaan, het niet door PoS zal zijn, maar mogelijk door AI.
Waarom zeg ik dit? Vroeger was rekenkracht "vast", iedereen concentreerde zich op zijn eigen bedrijf, maar in het AI-tijdperk is rekenkracht volledig "vloeibaar" geworden. CPU- en GPU-rekenkracht stroomt als water naar plekken met hogere opbrengsten, en de "miners" waarop ze ooit vertrouwden, kunnen op een dag in opstand komen.
Hoewel Qubic geen slechte jongen is, zal het succes van het experiment onvermijdelijk leiden tot concurrenten die deze methode gebruiken voor kwaadaardige aanvallen, zoals eerst een bepaalde munt short gaan en vervolgens 51% van de rekenkracht huren om aan te vallen, en wanneer de prijs van de munt instort, winst nemen. Voor deze ketens zijn er twee opties: of ze lassen miners vast zoals BTC, of ze blijven CPU/GPU-minen en bidden dat ze niet in het vizier komen.
Eerlijk gezegd zijn er veel van dit soort munten, zoals Grin, Beam, Haven Protocol, ETC, RVN, Conflux... Dus je ziet, dit is niet slechts een of twee munten, maar het hele CPU/GPU-mining-ecosysteem hangt aan de rand van de afgrond.
Het probleem is dat de vraag naar AI-rekenkracht exponentieel toeneemt, en er zijn zoveel AI-rekenkrachtaggregatieplatforms. Als ze allemaal de boel komen verstoren met exorbitante prijzen en platformprikkels om rekenkracht te kopen, dan zullen veel PoW-ketens waarschijnlijk hun veiligheidslinies verliezen.
—— Een ironisch paradox
De reden waarom ik dit absurd noem, is omdat Qubic zelf een AI-keten is. Zelfs als ze hun zogenaamde aanval op Monero intrekken, zullen ze nog steeds zichzelf schade toebrengen. Het is heel eenvoudig: elke AI-keten die afhankelijk is van rekenkracht, zou geen PoW als consensus moeten gebruiken. Want als rekenkracht wordt gebruikt om veiligheid te waarborgen, kan AI niet worden getraind; als rekenkracht wordt gebruikt om AI te trainen, is de keten niet veilig.
Dus de meeste AI-projecten, zoals Bittensor met PoS en Render met een reputatiesysteem, durven bijna niemand aan te raken met PoW. Iedereen weet dit, maar niemand had verwacht dat Qubic zo dom zou zijn om zijn eigen zwakte te demonstreren.
Qubic's recente actie lijkt een technisch evenement, maar in wezen is het een les voor de hele crypto-industrie: in een tijdperk van vrije stroom van rekenkracht is loyaliteit een luxe, en de meeste PoW-ketens kunnen deze prijs niet betalen.
Qubic heeft met deze aanval bewezen dat traditionele PoW gemakkelijk kan worden verwoest door economische prikkels. Hoewel ze zichzelf "nuttige PoW" noemen, zijn ze in wezen ook afhankelijk van deze "huurlingen" rekenkracht die altijd door hogere bieders kunnen worden overgenomen.
Revolutionairen kunnen ook door de volgende revolutionairen worden gerevolutioneerd.
Opmerking: Buiten de absurditeit en de onbekende angsten van sommige PoW-ketens, kunnen we twee feiten bevestigen: 1. BTC is echt geweldig; 2. @VitalikButerin heeft echt vooruitziende blik.
Ik geef alleen een oppervlakkige uitleg, meer technische details wachten op verdere delen van @evilcos.

38,93K
Iedereen roept dat de stier is aangekomen, maar weet je dat de methodologie voor het zoeken naar markt Alpha en Beta deze keer volledig anders is? Hier zijn een paar observaties:
1) OnChain+OffChain TradiFi als de hoofdverhaallijn:
Stabiele munten als infrastructuur: Stabiele munten worden het "bloed" dat traditionele financiën en DeFi-infrastructuur verbindt, met de cross-chain stroom van stabiele munten, APY Yield verschillen en nieuwe innovatieve uitbreidingen;
BTC/ETH micro-strategie "coin-stock" effect: Het wordt een trend dat beursgenoteerde bedrijven crypto-activa opnemen in hun balans, het vinden van potentiële kwaliteitsobjecten met "bijna-reserve activa" wordt cruciaal;
De opkomst van innovatieve paden naar Wall Street: DeFi-protocollen speciaal ontworpen voor instellingen, compliant opbrengstproducten en on-chain vermogensbeheertools zullen enorme investeringen aantrekken. Het oorspronkelijke "Code is Law" is veranderd in het nieuwe "Compliance is King";
2) Crypto pure native narratieven versnellen de waarheid:
De Ethereum-ecosysteem ondergaat een golf van heropleving: $ETH prijsdoorbraak zal de innovatieve golf van het Ethereum-ecosysteem opnieuw aansteken, en de eerdere Rollup-Centric strategie vervangen door een geheel nieuwe ZK-Centric die de hoofdmelodie zal worden;
Concurrentie tussen hoge prestaties Layer1: Het is niet langer een TPS-wedstrijd, maar wie echte economische activiteiten kan aantrekken, met kernindicatoren zoals: het aandeel van stabiele munten in TVL, de native APY-rendementen, de diepte van institutionele samenwerking, enzovoort;
De laatste ondergang van altcoins: De algemene grote altcoin-seizoenen hebben een fundamenteel probleem van onvoldoende kapitaalbeweging, terwijl lokale altcoins "dead cat bounce" markten kunnen vertonen, met kenmerken zoals: concentratie van chips, community-activiteit, en of ze kunnen profiteren van nieuwe concepten zoals AI/RWA;
3) MEME-munten upgraden van speculatieve tools naar marktstandaard:
Kapitaal efficiëntie: Traditionele altcoins hebben een te hoge marktkapitalisatie en uitgeputte liquiditeit, MEME-munten worden de nieuwe favoriet van kapitaal door hun eerlijke lancering en hoge omloopsnelheid, en zullen een groot deel van de stervende altcoin-marktaandeel veroveren;
Aandachtseconomie domineert: KOL-invloed, community-cultuurontwikkeling en hot FOMO-modellen blijven de kerncompetentie, en de liquiditeitsverdeling volgt nog steeds de aandachtseconomie;
Nieuwe indicatoren voor de kracht van publieke blockchains: De activiteit van de MEME-muntenmarkt zal een belangrijke standaard zijn voor het meten van de algehele kracht van publieke blockchains.
21,96K
Komt het Swift-systeem dat behoort tot de blockchain-wereld eraan? @mindnetwork heeft een on-chain versleutelde berichtenprotocol gelanceerd op basis van FHE-technologie, dat probeert een infrastructuur te bouwen die lijkt op traditionele interbancaire berichtensystemen voor traditionele financiële activa. Wat is er precies aan de hand?
1) Mind Network is een verticale technologieprovider van FHE (Fully Homomorphic Encryption). Aangezien deze technologie voornamelijk problemen met privacy en encryptie oplost, kan het flexibel waarde bieden in ZK, DePIN, AI en de momenteel populaire RWA-sector.
In de ZK-technologiestack kan FHE een belangrijke aanvulling zijn op zero-knowledge proofs, door privacybescherming op verschillende niveaus te bieden. In het DePIN-netwerk kan FHE gevoelige gegevens van gedistribueerde apparaten beschermen, terwijl het de netwerk samenwerking voor noodzakelijke berekeningen toestaat. In het domein van AI Agents kan FHE AI in staat stellen om te trainen en redeneren zonder gebruikersprivacygegevens te onthullen, wat cruciaal is voor AI-toepassingen in gevoelige gebieden zoals financiën en gezondheidszorg.
In de richting van RWA kan FHE de compliance-problemen oplossen die zich voordoen bij het on-chain brengen van traditionele financiële activa. Hoe moeten we dit begrijpen?
Blockchain mist van nature een "semantische laag"; transactierecords met alleen adressen en bedragen voldoen niet aan de eisen van financiële transacties met betrekking tot het doel van de transactie, contractcontext, identificatiebewijs, enzovoort. Het on-chain versleutelde berichtenprotocol van Mind Network kan elke blockchain-transactie voorzien van een "versleuteld opmerkingenveld", waarmee gevoelige informatie zoals eigendomsbewijzen, kredietbrieven en spraakautorisaties veilig kan worden verzonden, wat zowel privacy beschermt als voldoet aan de eisen van toezicht en audit.
2) Vanuit een technisch perspectief kan deze technologische oplossing de Web3-portemonnee upgraden van een puur overdrachtstool naar een versleutelde communicatie-identiteit. Traditionele on-chain oplossingen zijn ofwel afhankelijk van gecentraliseerde instanties voor het verwerken van compliance-informatie, ofwel zijn de informatie volledig openbaar en transparant, wat geen ideale oplossing is.
Met de privacy-compliance-oplossing ondersteund door FHE zijn de specifieke toepassingsscenario's heel duidelijk: bijvoorbeeld bij grensoverschrijdende betalingen met stablecoins kan de transactie tegelijkertijd versleuteld worden verzonden met het doel van de transactie en KYC-informatie, zodat toezichthouders compliance kunnen verifiëren zonder de plaintext te verkrijgen; of bij tokenisatie van vastgoedtransacties kunnen gevoelige documenten zoals taxatierapporten en koopcontracten versleuteld aan de on-chain transactie worden gebonden, wat zowel de circulatie van activa als de bescherming van commerciële privacy mogelijk maakt.
De FHE Bridge van Mind Network heeft 650.000 actieve adressen en 3,2 miljoen versleutelde transacties verzameld, wat de haalbaarheid van de technologische oplossing aantoont. Natuurlijk is deze data slechts gericht op het identificeren en verifiëren van een voldoende rigide marktvraag; wat betreft de marktperspectieven en ruimte is het waarschijnlijk nog moeilijk te overzien.
3) Veel puur native blockchain-builders maken zich zorgen over de richting en sector van hun bouwprojecten. Of het nu naar Vitalik is of naar VC, of gewoon een puur Fomo-hot topic narratief, ik denk dat we de komende tijd moeten verschuiven naar Wall Street, gebruikmakend van de crypto-regelgeving die vriendelijk is voor de Amerikaanse overheid, en zoveel mogelijk de basisinfrastructuur en pure toolservices bieden die Wall Street nodig heeft om de crypto-ruimte binnen te gaan, alles goed.
Terwijl traditionele financiële reuzen zoals BlackRock en JPMorgan actief bezig zijn met de tokenisatie van activa, zijn ze het meest bezorgd over de vraag of blockchain kan voldoen aan KYC, AML en andere reguleringsnormen. Dit is precies de echte reden waarom Mind Network zich vroegtijdig richt op de RWA-sector. Stel je voor dat de RWA-markt naar verwachting in 2034 een omvang van 30 biljoen dollar kan bereiken; hoe zal de vraag naar compliance-infrastructuur er dan uitzien?
Natuurlijk kan iedereen verwachtingen hebben over het delen van de taart van de RWA-blauwe oceaanmarkt. Maar het is eigenlijk belangrijker om de juiste ecologische positie te vinden, net zoals in het tijdperk van cloud computing AWS rekencapaciteit biedt en Cloudflare CDN, zo beweegt de blockchain-infrastructuur ook naar verticale segmentatie, en sommige verticale hardcore technologie-diensten zullen ongetwijfeld hun eigen gespecialiseerde rol moeten vinden.
Het is duidelijk dat Mind Network zich richt op de FHE-technologiestack en "encryptie als een dienst"-capaciteiten biedt voor verschillende sectoren. Daarom is het niet verwonderlijk dat we het in de ZK-, AI- en RWA-sectoren zien.

Mind Network7 aug, 16:50
✉️ Versleutelde Berichten Onchain
Echte Wereld Activa (#RWAs) zoals onroerend goed, stablecoin-afrekeningen en grensoverschrijdende financiën vereisen meer dan alleen waardeoverdracht.
Deze gebruiksgevallen zijn afhankelijk van transacties die doel, identiteit en auditsporen met naleving en privacy met zich meebrengen.
#SWIFT standaardiseert berichten voor naleving en afrekening. Blockchains missen nog steeds een native versleutelde manier om deze attributen uit te drukken.
Versleutelde Berichten Onchain is een nieuw protocol dat wallets in staat stelt om versleutelde, gestructureerde en verifieerbare berichten direct naast elke onchain-transactie te verzenden.
✅ Automatisch gestructureerde tekst voor semantische duidelijkheid
✅ Wallet-gebaseerde keygen voor end-to-end encryptie
✅ Versleutelde berichten gekoppeld aan transacties met auditsporen en toegangscontrole
Versleutelde Berichten Onchain combineert Volledig Homomorfe Encryptie (#FHE) met conventionele cryptografische technieken om gevoelige gegevens om te zetten in veilige onchain payloads, toegankelijk alleen voor bedoelde ontvangers.
Leer meer:

6,91K
Recentelijk heeft Eowyn Chen, CEO van @TrustWallet, op het YouTube-kanaal "The Rollup" een discussie gevoerd met Ram Kumar, een kernbijdrager van @OpenledgerHQ, over de diepgaande samenwerking tussen beide partijen. Hier zijn enkele waardevolle inzichten die ik heb verzameld:
1) Een koude douche voor de "dikke portemonnee" theorie
Tijdens het interview noemde Andy de populaire "dikke portemonnee" theorie in de industrie - wallets die gebruikerskanalen hebben, kunnen verschillende diensten verticaal integreren? Maar Eowyn Chen's reactie was interessant; ze zei dat het eigenlijk heel moeilijk is om C-end retail gebruikers te bedienen, wat veel klantenondersteuning, hogere veiligheidsverantwoordelijkheid en frequente productroute-aanpassingen met zich meebrengt.
Veel mensen denken dat het hebben van 200 miljoen downloads voor Trust Wallet betekent dat het een goede business is om een portemonnee te maken, maar de CEO benadrukt zelf de pijn van het bedienen van retail gebruikers. Dit laat zien dat een portemonnee niet zomaar "dik" kan worden; hoewel gebruikersrelaties waardevol zijn, zijn de onderhoudskosten ook niet laag. Dit inzicht is redelijk en laat de echte situatie van veel portemonnee-dienstverleners zien.
Belangrijker is dat ze opmerkte dat niet alle waarde zich aan de voorkant concentreert; alle delen van de waardeketen moeten eerlijk ontwikkelen. Dit inzicht is een koude douche voor de "dikke portemonnee" theorie en verklaart waarom Trust Wallet bereid is samen te werken met infrastructuurprojecten zoals OpenLedger.
2) Is het keerpunt voor gespecialiseerde AI aangebroken?
Ram Kumar's beoordeling van de ontwikkelingsroute van AI is opmerkelijk. Hij gelooft dat AI zich ontwikkelt van algemeen naar gespecialiseerd, vergelijkbaar met hoe Google uit algemene zoekopdrachten LinkedIn, YouTube en andere verticale toepassingen heeft voortgebracht. Algemeen AI zoals ChatGPT zal fungeren als een besturingssysteem, terwijl er in de toekomst meer "gespecialiseerde modellen" voor specifieke toepassingen zullen zijn.
Dit sluit aan bij mijn eerdere analyse van de evolutie van trends in de web3AI-industrie. Trust Wallet ontdekte dat algemene modellen de specifieke problemen in de cryptosfeer niet konden oplossen toen ze AI-functies probeerden, wat deze trend bevestigt. En precies, de bouw van gespecialiseerde AI-modellen vereist hoogwaardige gegevens uit verticale domeinen, wat precies is wat OpenLedger wil oplossen.
3) De "onbetaalde arbeid" impasse van gegevensbijdragen
Ram Kumar zei dat AI een "miljard dollar industrie is die is opgebouwd op basis van onbetaalde arbeid", en deze kritiek is behoorlijk scherp. AI-bedrijven trainen modellen door gegevens van het internet te verzamelen, maar de gegevensbijdragers krijgen er niets voor terug, wat inderdaad een structureel probleem is.
OpenLedger's oplossing is om gegevensbijdragers een langdurige winstdeling van AI-modellen te geven, in plaats van een eenmalige verkoop van gegevens. In combinatie met de wereldwijde betalingscapaciteit van de portemonnee kan dit theoretisch een naadloze waardeverdeling over grenzen heen realiseren.
Maar hier is een kernprobleem: hoe waarborgen we de gegevenskwaliteit? Ram zelf erkent dat 90% van de open-source bijdragen op platforms zoals Hugging Face niet veel nut heeft. Als de waarde van de bijgedragen gegevens beperkt is, is zelfs het beste beloningssysteem nutteloos.
Dat was het.
Eowyn Chen gebruikte de analogie van "wapenbezit" om zelfbeheer te vergelijken en benadrukte dat AI-functies optioneel zijn, zodat gebruikers zelf kunnen kiezen tussen gemak en veiligheid. Deze productfilosofie is juist, maar hoe je "de opties duidelijk presenteert" is een grote uitdaging voor productontwerp.
Ram noemde ook een interessante beoordeling: crypto-portemonnees zijn de enige manier voor gebruikers om wereldwijd beloningen voor gegevensbijdragen te ontvangen. Dit betekent dat de rol van de portemonnee kan evolueren van een puur activabeheer hulpmiddel naar een infrastructuur voor digitale identiteit en waardeverdeling.
Opmerking: Voor meer informatie kun je het YouTube-kanaal van The Rollup bezoeken om deze interview te bekijken.


The Rollup5 aug, 08:31
NIEUWE EP: Het Nieuwe Tijdperk van Distributie met Ram Kumar & Eowyn Chen
In de aflevering van vandaag gaat @ayyyeandy in gesprek met @Ramkumartweet van @OpenledgerHQ en @EowynChen van @TrustWallet om te verkennen:
>De "Fat Wallet Thesis" vs Fat Protocol Theory
>Hoe Trust Wallet van plan is AI te integreren
>De beveiligingsrisico's van AI-gestuurde wallets
>De visie van OpenLedger voor het belonen van datacontributoren
>Waarom generieke AI nooit zal werken voor DeFi
Volledige aflevering links hieronder.
Tijdstempels:
00:00 Intro
00:20 Ram en Eowyn’s Crypto & AI Achtergronden
02:50 De Waarde voor Gebruikers van Trust Wallet
07:43 Starknet Advertentie
08:10 OpenLedger over AI Evolutie
11:03 Toekomst van Wallet Interfaces
17:12 Zelfbewaking AI Beperkingen
21:22 Mantle Advertentie
22:02 Betere AI Modellen Trainen
28:19 Wat is de volgende stap voor OpenLedger en Trust Wallet
5,18K
Nadat ik er goed over nagedacht heb, vind ik de laatste opmerkingen van @VitalikButerin over snelle opnames van L2 best interessant. Simpel gezegd: hij gelooft dat het belangrijker is om binnen een uur snel op te nemen dan om Stage 2 te bereiken. De logica achter deze prioriteitswijziging is het waard om dieper over na te denken:
1) De wachttijd van een week voor opnames is in de praktijk een groot probleem geworden, niet alleen vanwege de slechte gebruikerservaring, maar vooral omdat het de kosten voor cross-chain verhoogt.
Bijvoorbeeld bij intent-gebaseerde bruggen zoals ERC-7683 moeten liquiditeitsverschaffers een week lang kapitaal vasthouden, wat de kosten voor cross-chain direct verhoogt. Het resultaat is dat gebruikers gedwongen worden om te kiezen voor een multi-signatuur oplossing met een zwakker vertrouwen, wat precies in strijd is met de oorspronkelijke bedoeling van L2.
Daarom heeft Vitalik een 2-of-3 hybride bewijs systeem (ZK+OP+TEE) voorgesteld, waarbij ZK en TEE onmiddellijke resultaten kunnen bieden, en TEE en OP voldoende productievalidatie hebben. Theoretisch kunnen twee van deze systemen de veiligheid garanderen, waardoor de tijdskosten van het wachten op de volledige volwassenheid van ZK-technologie worden vermeden.
2) Een ander punt is dat Vitalik's nieuwe opmerkingen de indruk wekken dat hij pragmatischer is geworden? Van een idealistische jongeman die vol zat met "decentralisatie heilige oorlog" en "anti-censuur" naar een pragmatische aanpak met harde cijfers: 1 uur opname, 12 seconden eindresultaat, alles wordt eenvoudig en direct.
Eerder was iedereen bezig met de decentralisatiegraad van Stage 2, nu zegt V God gewoon dat snelle opnames belangrijker zijn, wat gelijk staat aan het opnieuw prioriteren van het hele L2-ecosysteem. Dit legt de basis voor de ultieme vorm van de "Rollup-Centric" strategie, waardoor Ethereum L1 echt een uniforme afrekenlaag en liquiditeitscentrum kan worden. Zodra snelle opnames en cross-chain aggregatie zijn gerealiseerd, wordt het voor andere public chains moeilijker om de Ethereum-ecosysteem uit te dagen.
De reden dat kleine V dit doet, is omdat de markt hem al met de voeten heeft gestemd; de markt geeft niet om de technische leuzen van decentralisatie, maar hecht meer waarde aan ervaring en efficiëntie. Deze verschuiving van "ideaal gedreven" naar "resultaatgericht" weerspiegelt dat het hele Ethereum-ecosysteem zich in een meer commerciële en competitieve richting ontwikkelt.
3) De vraag is nu: om de lange termijn doelen van realistische ervaring en infrastructuur op te bouwen te bereiken, zal het Ethereum-ecosysteem waarschijnlijk de volwassenheid en kostenbeheersing van ZK-technologie onder druk zetten.
Kijkend naar de huidige situatie, hoewel ZK-technologie snel vooruitgang boekt, blijven de kosten een reële beperking. 500k+ gas voor ZK bewijs betekent dat we op korte termijn alleen een indienfrequentie van per uur kunnen bereiken. Om het ultieme doel van 12 seconden te bereiken, moeten we afhankelijk zijn van doorbraken in aggregatietechnologie.
De logica hier is duidelijk: de kosten voor het frequent indienen van bewijs door een enkele Rollup zijn te hoog, maar als de bewijs van N Rollups kan worden samengevoegd tot één, wordt het economisch haalbaar om deze over elke slot (12s) te verdelen.
Dit stelt ook nieuwe technische routes voor in het L2 concurrentielandschap; die L2-projecten die als eerste doorbraken in ZK bewijsoptimalisatie weten te behalen, kunnen misschien een plek vinden, terwijl degenen die nog steeds vastzitten aan Optimism's optimistische bewijs, waarschijnlijk de richting zullen verliezen.

vitalik.eth7 aug, 00:29
Geweldig om te zien dat zoveel belangrijke L2's nu op fase 1 staan.
Het volgende doel waar we naar moeten streven is, naar mijn mening, snelle (<1u) opnametijden, mogelijk gemaakt door validiteit (ook wel ZK) bewijs systemen.
Ik beschouw dit als nog belangrijker dan fase 2.
Snelle opnametijden zijn belangrijk omdat een week wachten om op te nemen simpelweg veel te lang is voor mensen, en zelfs voor intentie-gebaseerde bruggen (bijv. ERC-7683), worden de kapitaalkosten te hoog als de liquiditeitsverschaffer een week moet wachten. Dit creëert grote prikkels om in plaats daarvan oplossingen te gebruiken met onaanvaardbare vertrouwensassumpties (bijv. multisigs/MPC) die het hele punt van het hebben van L2's in plaats van volledig onafhankelijke L1's ondermijnen.
Als we de inheemse opnametijden kunnen verminderen tot onder de 1u op korte termijn, en 12s op middellange termijn, dan kunnen we de Ethereum L1 verder verankeren als de standaard plek om activa uit te geven, en het economische centrum van het Ethereum-ecosysteem.
Om dit te doen, moeten we weg van optimistische bewijs systemen, die inherent vereisen dat je meerdere dagen moet wachten om op te nemen.
Historisch gezien is ZK bewijs technologie onvolwassen en duur geweest, wat optimistische bewijzen de slimme en veilige keuze maakte. Maar recentelijk verandert dit snel. is een uitstekende plek om de voortgang van ZK-EVM bewijzen te volgen, die snel verbeteren. Formele verificatie op ZK bewijzen vordert ook.
Eerder dit jaar stelde ik een 2-uit-3 ZK + OP + TEE bewijs systeem strategie voor die de balans vindt tussen veiligheid, snelheid en volwassenheid:
* 2 van de 3 systemen (ZK, OP) zijn vertrouwensloos, zodat geen enkele actor (inclusief TEE-fabrikant of aanvaller via zijkanaal) het bewijs systeem kan breken door een vertrouwensassumptie te schenden
* 2 van de 3 systemen (ZK, TEE) zijn direct, zodat je snelle opnames krijgt in de normale situatie
* 2 van de 3 systemen (TEE, OP) zijn al jaren in productie in verschillende contexten
Dit is één benadering; misschien kiezen mensen ervoor om in plaats daarvan ZK + ZK + OP tiebreak, of ZK + ZK + beveiligingsraad tiebreak te doen. Ik heb hier geen sterke meningen over, ik geef om het onderliggende doel, dat is snel te zijn (in de normale situatie) en veilig.
Met dergelijke bewijs systemen wordt de enige resterende bottleneck voor snelle afhandeling de gaskosten van het indienen van bewijzen on-chain. Dit is waarom ik op korte termijn zeg eens per uur: als je probeert een 500k+ gas ZK bewijs (of een 5m gas STARK) veel vaker in te dienen, voegt dit een hoge extra kost toe.
Op de lange termijn kunnen we dit oplossen met aggregatie: N bewijzen van N rollups (plus tx's van privacy-protocol gebruikers) kunnen worden vervangen door een enkel bewijs dat de geldigheid van de N bewijzen aantoont. Dit wordt economisch om eens per slot in te dienen, waardoor het eindspel mogelijk wordt: bijna directe inheemse cross-L2 activa beweging door de L1.
Laten we samenwerken om dit te laten gebeuren.
14,15K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste