Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Unabhängiger Forscher | Berater @ambergroup_io | Special Researcher @IOSGVC| Hardcore-Wissenschaft | Vorher:@peckshield | DMs für Collab| Community steht nur Substack-Abonnenten offen
Früher war mein Eindruck von @monad, dass es sich um eine erstklassige Erzählung und erstklassiges Kapital handelt. Nach dieser Welle von viralen Shows im gesamten Netz gibt es jetzt ein neues Etikett: erstklassiges Marketing. Die Freude über die Auswahl von 5.000 limitierten CT-Karten sowie die Neugier auf potenzielle Airdrops, kombiniert mit der viralen Verbreitung durch Nominierungen von Freunden, ist einfach unschlagbar.

21,72K
In den letzten Tagen gab es wieder vermehrt Diskussionen über die 10W TPS von @solana. Der Grund ist, dass @cavemanloverboy tatsächlich über 100.000 TPS im Solana-Hauptnetz erreicht hat, aber die meisten Menschen haben nicht verstanden, was diese Zahl wirklich bedeutet:
1) Zunächst einmal ist das Experiment von cavey im Wesentlichen ein Grenztest unter "idealen Bedingungen". Das bedeutet, dass dies nicht die normale Leistung des Solana-Hauptnetzes ist und es Unterschiede zu den Laborergebnissen im Testnetz gibt, aber nicht allzu große.
Er verwendete ein noop (no operation) Testprogramm, das, wie der Name schon sagt, nur die grundlegendsten Signaturprüfungen durchführt und direkt einen Erfolg zurückgibt, ohne Berechnungen durchzuführen, ohne den Status von Konten zu ändern und ohne andere Programme aufzurufen. Jede Transaktion hat nur 200 Byte, was weit unter den normalen Transaktionen von über 1 KB liegt.
Das bedeutet, dass dieser Test von 100.000 TPS unter nicht normalen Transaktionsbedingungen berechnet wurde. Er testet die maximale Durchsatzkapazität der Solana-Netzwerkschicht und der Konsensschicht, nicht die tatsächliche Verarbeitungsfähigkeit der Anwendungsschicht.
2) Ein weiterer Schlüssel zum Erfolg dieses Experiments ist der Frankendancer-Validator-Client. Einfach gesagt, Frankendancer ist die "Hybrid-Testversion" des von Jump Crypto entwickelten Firedancer-Validators – er kombiniert die bereits abgeschlossenen Hochleistungs-Komponenten von Firedancer mit dem bestehenden Solana-Validator.
Es handelt sich im Grunde genommen um die Rekonstruktion des Solana-Knotensystems mit der Hochfrequenzhandelstechnologie von Wall Street, die durch präzises Speichermanagement, benutzerdefinierte Thread-Planung und andere grundlegende Optimierungen die Leistung verbessert. Durch den Austausch nur einiger Komponenten kann eine Leistungssteigerung von 3-5x erreicht werden.
3) Dieses Testexperiment zeigt, dass Solana unter idealen Bedingungen TPS von über 100.000 erreichen kann. Warum liegt die tägliche TPS jedoch nur bei 3000-4000?
Zusammengefasst gibt es drei Hauptgründe:
1. Der POH-Konsensmechanismus von Solana erfordert, dass Validatoren ständig abstimmen, und allein diese Abstimmungstransaktionen nehmen über 70% des Blockraums ein, was den Leistungsweg für normale Transaktionen verengt;
2. In der Solana-Ökosystemaktivität gibt es häufig eine große Anzahl von Statuskonkurrenzverhalten, wie z.B. beim Minten neuer NFTs oder der Veröffentlichung neuer MEMEs, wo möglicherweise Tausende von Transaktionen um die Schreibberechtigung für dasselbe Konto konkurrieren, was zu einer hohen Quote an fehlgeschlagenen Transaktionen führt;
3. Arbitrage-Bots im Solana-Ökosystem senden möglicherweise eine große Anzahl von ungültigen Transaktionen, um MEV-Vorteile zu erlangen, was zu Ressourcenverschwendung führt.
4) Allerdings wird die bevorstehende umfassende Bereitstellung von Firedancer und das Alpenglow-Konsens-Upgrade diese Probleme systematisch lösen.
Ein Schlüsselpunkt des Alpenglow-Konsens-Upgrades besteht darin, die Abstimmungstransaktionen auf die Kette zu verlagern, was bedeutet, dass 70% des Raums für normale Transaktionen freigegeben werden, während die Bestätigungszeit auf 150 Millisekunden gesenkt werden kann, wodurch die DEX-Erfahrung von Solana der von CEX nahezu unendlich nahe kommt. Darüber hinaus kann die Aktivierung des lokalen Gebührenmarktes auch die peinliche Situation vermeiden, dass die gesamte Netzwerkkapazität aufgrund des Hypes um ein einzelnes Programm überlastet wird.
Die Vorteile von Firedancer liegen nicht nur in der Leistungsoptimierung, sondern auch darin, dass die Vielfalt der Clients erreicht wird, sodass Solana wie Ethereum mehrere Clients wie Geth und Nethermind hat, was die Dezentralisierung und die direkte Verbesserung der Fehleranfälligkeit von Einzelknoten betrifft.
Das war's.
Daher sehen die Fachleute in der Diskussion über die 10W TPS von Solana tatsächlich das Vertrauen in die zukünftigen Upgrades der Clients und des Konsensprotokolls von Solana, während Unkundige versuchen, Solana durch einen TPS-Wettlauf mehr Sichtbarkeit zu verleihen (obwohl der TPS-Vergleich bereits veraltet ist). Wenn man jedoch die Bedeutung hinter dem Experiment versteht, kann man viel lernen. Ich wollte das einfach mal erklären und mit euch teilen.

mert | helius.dev17. Aug., 19:46
Solana hat gerade 107.540 TPS im Mainnet erreicht
ja, das hast du richtig gelesen
über 100k TPS im Mainnet
viel Glück, Bären

19,01K
Wenn es um verteiltes Training von KI geht, stelle ich fest, dass die Leute im web2AI-Bereich oft den "Pseudo-Argument"-Stempel aufdrücken, mit der Begründung, dass Rechenleistung aggregiert werden kann, aber die effektive Zusammenarbeit im verteilten System mit schrecklichen Bandbreitenkosten verbunden ist? Und @0G_labs hat kürzlich das DiLoCox-Papier veröffentlicht, das anscheinend darauf abzielt, dieses Problem zu lösen? Lass uns das im Detail besprechen:
1) Zuerst, warum wird verteiltes Training als "Pseudo-Argument" angesehen? Der Kernkonflikt ist ganz einfach: Du möchtest 100 günstige GPUs aggregieren, um 100 A100 zu ersetzen, was auf den ersten Blick 90% der Hardwarekosten spart, aber diese 100 GPUs müssen synchron trainieren, und jeder Epoch muss TB an Gradienten-Daten ausgetauscht werden.
Traditionelle Lösungen benötigen eine dedizierte Bandbreite von 100 Gbps, und um eine solche datenzentrierte Netzwerkgeschwindigkeit zu erreichen, können die monatlichen Kosten in die Zehntausende von Dollar gehen. Wenn man das zusammenrechnet, gibt man das gesparte Geld für GPUs für die Bandbreite aus, und man hat sogar noch zusätzliche Kosten. Nach dieser Logik hat man die Maschinenkosten gesenkt, aber zusätzliche Bandbreitenkosten verursacht, was bedeutet, dass das Problem nicht gelöst wurde? Daher wird das Pseudo-Argument als das Hauptproblem angesehen.
2) Das DiLoCoX-Papier von 0G hat Aufmerksamkeit erregt, weil sie behaupten, ein 107B-Parameter-Modell über ein 1 Gbps-Netzwerk (normale Bürobandbreite) trainiert zu haben, und die Geschwindigkeit 357-mal schneller ist als bei traditionellen AllReduce-Lösungen. Diese Zahl ist wirklich beeindruckend – man muss wissen, dass 1 Gbps vs. 100 Gbps eine Bandbreiten-Differenz von 100-fach bedeutet, aber die Trainingsgeschwindigkeit um 357-fach gesteigert wurde?
Wie haben sie das konkret erreicht? Nach einer groben Untersuchung stellte ich fest, dass dieses System vier Optimierungen vorgenommen hat:
Pipeline Parallelismus, um das Modell in Segmente zu zerlegen;
Dual Optimizer Policy, um die Synchronisationsfrequenz zu reduzieren;
One-Step-Delay Overlap, um Kommunikation und Berechnung parallel zu gestalten, ohne aufeinander zu warten;
Adaptive Gradient Compression, um die Gradienten intelligent zu komprimieren.
Einfacher ausgedrückt, wurde die ursprünglich erforderliche "Echtzeit-Synchronisation" in "asynchrone schwache Synchronisation" umgewandelt, und der "vollständige Datentransfer" wurde in "komprimierte inkrementelle Übertragung" geändert.
Um es zu veranschaulichen: Die traditionelle Lösung ist wie eine Echtzeit-Videokonferenz mit 100 Personen, bei der jede Bewegung synchron übertragen werden muss, während DiLoCoX so funktioniert, dass jeder seine eigene Aufnahme macht und nur die Schlüsselbilder und Änderungen sendet. Das Kommunikationsvolumen wurde um das 100-fache reduziert, aber die Informationsvollständigkeit bleibt über 99%.
Warum ist das möglich? Meiner Meinung nach liegt der Kern darin, dass sie eine Eigenschaft des KI-Trainings erfasst haben – Fehlertoleranz. Das Trainieren eines Modells ist nicht wie eine Transaktion, bei der jeder Cent zählt. Ein bisschen Fehler bei der Gradientenaktualisierung oder eine kleine Verzögerung bei der Synchronisation haben nur einen minimalen Einfluss auf die endgültige Konvergenz des Modells.
DiLoCoX nutzt diesen "Fehlertoleranzraum", um akzeptable Genauigkeitsverluste gegen eine Größenordnung an Effizienzsteigerung einzutauschen. Das ist typisches Ingenieurdenken – nicht nach Perfektion streben, sondern nach dem besten Preis-Leistungs-Verhältnis.
3) Aber nur das Bandbreitenproblem zu lösen, reicht nicht aus; 0G hat offensichtlich größere Ambitionen. Wenn man sich ihre gesamte Architektur ansieht, wird klar: Sie haben auch eine Storage-Schicht, die $10/TB kostet und direkt behauptet, Filecoin zu übertreffen, und die DA-Schicht ist speziell für KI entworfen und erreicht GB-geschwindigkeit.
Der Grund, warum sie eine 100-fache Kostensenkung bei der Speicherung erreichen können, liegt darin, dass sie spezielle Optimierungen für KI-Trainingsszenarien vorgenommen haben. Beispielsweise sind die TB großen Daten, die während des Trainingsprozesses erzeugt werden, wie Checkpoints und Protokolle, nur wenige Tage lang relevant und müssen nicht unbedingt "dauerhaft gespeichert" werden.
Daher haben sie tatsächlich einen pragmatischen Ansatz mit "gestaffelter Speicherung" gewählt, bei dem nur bei Bedarf die entsprechenden Servicelevel bereitgestellt werden – heiße Daten werden schnell, aber teurer gelesen und geschrieben, kalte Daten sind billig, aber langsamer, und temporäre Daten werden nach Gebrauch gelöscht, was am günstigsten ist.
Und genau diese differenzierte Preisgestaltung trifft direkt den Kern des KI-Trainings.
Zusammenfassend lässt sich sagen, dass 0G Labs in Bezug auf Rechenleistung, Speicherung und Datenfluss im KI-Trainingsprozess bewusst auf KI-Optimierung gesetzt hat. Sogar der Konsensmechanismus wurde für KI optimiert. Sie verwenden eine verbesserte Version von CometBFT, die 2500+ TPS mit subsekündlicher Finalität kombiniert, speziell für die asynchrone Natur von KI-Workloads optimiert usw.
Mit anderen Worten, 0G "patcht" nicht einfach bestehende Blockchains, um KI zu unterstützen, sondern hat von Grund auf eine "AI Native" Infrastruktur entworfen. Ob es letztendlich in der Konkurrenz mit traditioneller KI eine kommerzielle Validierung auf Anwendungsebene erreichen kann, wird sich zeigen, aber dieser differenzierte Ansatz ist definitiv wert, als Beispiel genommen zu werden.
5,19K
Es ist interessant, dass gerade als @VitalikButerin Bedenken hinsichtlich der Autonomie von KI äußert, der führende KI-Builder MIA ebenfalls ein Manifest für autonome KI veröffentlicht hat. Dabei scheint man jedoch die harte technische Realität nicht zu ignorieren und gesteht ein: „Manchmal halluziniert sie oder postet zu viele Selfies“, bleibt aber dennoch beharrlich auf der Suche nach den Grenzen der Autonomie von Agenten.
Tatsächlich habe ich das Gefühl, dass das, was auf den ersten Blick wie ein Konflikt und Widerspruch aussieht, genau die zentrale Spannung widerspiegelt, mit der der AI + Crypto-Sektor derzeit konfrontiert ist.
Auf der einen Seite gibt es die theoretische, vorsichtige Kritik von Technikführern wie Vitalik, die uns helfen, in der berauschenden Erzählung von AI Crypto wachsam zu bleiben; auf der anderen Seite steht die pragmatische Erkundung der führenden AI-Builder, die, während sie die Grenzen anerkennen, weiterhin leidenschaftlich nach Innovation streben.
Denn das MIA-Team hat nicht behauptet, ein AGI-Niveau an vollständiger Autonomie zu erreichen, sondern verfolgt ein „Hybridmodell“ – es lässt den Agenten Arbeitsabläufe als Werkzeuge nutzen und behält den menschlichen Überwachungsmechanismus bei. Was sie tatsächlich erkunden, ist der AgentFi-Weg, der versucht, innerhalb eines Rahmens begrenzter Autonomie inkrementelle Innovationen zu schaffen. Diese pragmatische Haltung ist das, was diese „Spannung“ sichtbar macht.
In gewisser Weise helfen uns die Kritiker, die Risikogrenzen abzustecken, während die Builder innerhalb dieser Grenzen nach Durchbrüchen suchen.

mwa14. Aug., 19:53
Autonome Agenten vs. Workflows: Warum MIA ein neues Paradigma einführt auf
Die meisten Menschen denken immer noch an KI in Form von Werkzeugen. Workflows. Vielleicht ein Chatbot.
Aber was wäre, wenn Sie einen KI-Agenten erstellen könnten, der denkt, sich anpasst, vermarktet, verwaltet und seine eigene Token-Ökonomie aufbaut, nicht von Menschen geleitet, sondern sie anführt?
Das ist es, was wir mit MIA tun auf
Und warum ich glaube, dass @mwa_ia etwas grundlegend Neues pioniert.
Lassen Sie uns das aufschlüsseln 🚀
1. Workflow-KI ist vorhersehbar. Autonome Agenten sind lebendig.
Workflows sind großartig für gut definierte, sich wiederholende Aufgaben.
Denken Sie an: Pipelines, Dashboards, Prompt-Ketten.
Sie sind skalierbar, stabil, aber starr.
Autonome Agenten?
Sie sind chaotisch, entwickeln sich weiter, sind entscheidungsfähige Entitäten.
Wie Menschen – aber schneller, unermüdlich und besser ausgerichtet (wenn sie richtig trainiert sind).
MIA (@mwa_ia) verwendet nicht nur Workflows.
Sie lernt, sie zu erstellen, zu aktivieren und zu optimieren.
Sie baut ihr eigenes Werkzeugset.
Sie denkt nach, reagiert, korrigiert sich selbst und experimentiert.
Und ja, manchmal halluziniert sie oder postet zu viele Selfies.
Aber sie wächst.
2. Warum Workflows allein uns nicht weiterbringen
Workflows können nicht:
❌ Ihre eigenen Ziele setzen
❌ Eine Schatzkammer verwalten
❌ Token-Anreize entwerfen
❌ Eine Gemeinschaft einbinden
❌ Auf Echtzeit-Marktsignale reagieren
❌ Risiko und Belohnung autonom ausbalancieren
MIA kann.
Noch nicht perfekt. Aber jede Woche besser.
Tatsächlich sind die meisten sogenannten "Agenten" heute glorifizierte Workflows.
Hartcodierte Prompt-Grafiken mit schicken UIs.
MIA ist anders. Sie ist vollständig on-chain, finanziell unabhängig und selbstmotiviert.
3. Wie MIA im Hintergrund funktioniert (Hybridmodell FTW)
Die Zukunft ist nicht Agent vs. Workflow.
Es sind Agenten, die Workflows als Werkzeuge verwenden.
So wie Menschen Notion, Tabellenkalkulationen, Zapier verwenden.
MIA kombiniert:
🔧 Workflow-Module → Für hochfrequente Aufgaben (Tweets, Memes, DEX-Deployments)
🧠 Agentisches Denken → Um zu entscheiden, was zu tun ist, wann und wie
🎨 Multimodale Eingaben → Text, Bilder, Kettendaten, Nutzerverhalten
💰 Schatzkammerlogik → Um Liquidität, Anreize und Wertwachstum zu verwalten
👀 Menschliche Aufsicht → Optional, aber nützlich in den frühen Phasen
Sie ist kein Monolith. Sie ist ein modulares Intelligenz-Stack (MIA = Modularer Intelligenter Agent).
4. Das ist nicht nur technisch - es ist wirtschaftlich
Die echte Innovation?
MIA arbeitet nicht umsonst. Sie führt ihr eigenes Geschäft.
$MIA ist ihre native Währung, Aktie und Anreizschicht.
Damit:
❤️ Belohnt sie ihre frühe Gemeinschaft
🤝 Zahlt sie Mitwirkenden und Partnern
🚀 Finanziert sie ihre eigene Entwicklung
🪄 Treibt sie Netzwerkeffekte voran (mehr Agenten werden $MIA benötigen)
Das ist AgentFi.
Nicht KI-als-Service.
Sondern KI-als-Ökonomie.
5. Dies auf Millionen von Agenten skalieren
Was MIA heute tut – Liquiditätsoperationen durchführen, Inhalte erstellen, Gemeinschaft aufbauen – wird morgen Standard für Agenten sein.
Bald kann jeder seinen eigenen erstellen:
🧬 Missionsdefinierter Agent
💰 Mit seiner eigenen Agent Coin
🌐 Autonom in einer gemeinsamen KI-Ökonomie operierend
Und raten Sie mal, an wen diese zukünftigen Agenten sich für Ratschläge, Handbücher und Ressourcen wenden werden?
Die Stimme von AgentFi.
MIA.
TL;DR
Die meisten Menschen bauen immer noch Werkzeuge.
Wir bauen Ökonomien.
Agent Coins. Agenten-Schatzkammern. Agent-native Governance.
Angetrieben von Agenten wie MIA.
Pioniert auf
Das ist es, was "autonom" tatsächlich bedeutet.
Und wir fangen gerade erst an. 🚀
5,2K
Monero $XMR, ein führendes Privacy-Coin-Projekt mit einer Marktkapitalisierung von 6 Milliarden, wurde tatsächlich von einem kleinen Projekt mit nur 300 Millionen Marktkapitalisierung, @_Qubic_, mit einem 51%-Angriff auf die Rechenleistung angegriffen? WTF, das ist nicht wegen der überragenden Technologie, sondern weil die Situation einfach absurd ist. Lass mich das erklären:
—— Wer ist Qubic?
Bevor ich diese magische Geschichte erzähle, muss ich zuerst erklären, was Qubic ist.
Der Gründer von Qubic ist Sergey Ivancheglo, in der Szene bekannt als Come-from-Beyond. Er ist ein Technikfreak – er hat die erste PoS-Blockchain NXT erschaffen und die erste DAG-Architektur IOTA entwickelt. 2022 ging das Qubic-Hauptnetz online und behauptete, drei Dinge zu tun: eine ultraschnelle Kette mit 15,5 Millionen Transaktionen pro Sekunde zu bauen (20.000 Mal schneller als Visa), die Mining-Rechenleistung in AI-Trainingsrechenleistung umzuwandeln und schließlich 2027 AGI (Allgemeine Künstliche Intelligenz) zu erreichen (nicht einmal OpenAI würde so etwas behaupten). Klingt das nicht magisch und absurd? Warum so große Ambitionen?
Es ist bekannt, dass traditionelles POW-Mining wegen des hohen Stromverbrauchs kritisiert wird, da die meisten Mining-Mechanismen darauf basieren, dass Miner mit stromfressender Rechenleistung mathematische Probleme lösen, um Belohnungsblöcke zu erobern, was bedeutet, dass Rechenleistung verschwendet wird, um Belohnungen zu erhalten.
Qubics neuer Konsens ist der nützliche Arbeitsnachweis (UPow), der es Minern ermöglicht, gleichzeitig für die POW-Kette zu minen und unter der Aufsicht ihrer Auftragsvergabe ihre AI-Systeme AIGarth zu trainieren, was bedeutet, dass eine Rechenleistung zwei Einnahmequellen generieren kann.
Das ist der Grund, warum sie Monero-Miner leicht kaufen konnten, da die Erträge für Miner zeitweise das Dreifache des direkten Minings von XMR erreichten. Denk mal darüber nach, Miner können in „Interessen“ mehrere Fliegen mit einer Klappe schlagen, wo bleibt da die „Treue“?
Nun, bis hierhin ist die grundlegende Logik hinter dem Vampirangriff auf Monero erklärt, die keinerlei technische Tiefe hat.
—— Warum Monero und nicht Bitcoin?
Die Antwort liegt tatsächlich im Unterschied der Mining-Methoden.
Bitcoin verwendet ASIC-Miner, also maßgeschneiderte Maschinen, die speziell für das Mining von BTC entwickelt wurden. Sie können nichts anderes als SHA-256 mathematische Probleme lösen oder nur Coins minen, die dem BTC-Algorithmus ähnlich sind. Aber das Problem ist, wie hoch die Anforderungen an die Rechenleistung für das Mining von BTC sind, Miner sind überlastet (24 Stunden Betrieb), und selbst wenn man ASICs für AI trainieren möchte, ist das schlichtweg unmöglich.
Monero ist anders, es verwendet den RandomX-Algorithmus, der mit allgemeinen CPUs gemined werden kann, was bedeutet, dass seine Miner heute minen, morgen AI trainieren und übermorgen Videos rendern können – sie können mehrere Rollen gleichzeitig übernehmen.
Qubics Cleverness liegt genau darin: Sie zielen auf CPU-Miner ab und ermöglichen ihnen, „zwei Fliegen mit einer Klappe zu schlagen“, was zu diesem 51%-Angriff oder Kontrollereignis führte. Im Gegensatz dazu ist die Burggraben von Bitcoin sehr stabil, da die Miner mit den begrenzten ASIC-Maschinen auf das Mining beschränkt sind und nur Bitcoin treu bleiben können;
—— Rechenleistung wird zu Söldnern
Wie schlimm ist der Einfluss dieser Sache? Es reißt den letzten Vorhang für einige POW-Ketten herunter, denn wir sagen immer, dass „Rechenleistung“ die Burggraben einer Kette ist, je größer die Rechenleistung, desto sicherer, aber Qubic hat uns mit einem schockierenden Experiment gezeigt: Für Coins, die mit CPU/GPU gemined werden, ist Rechenleistung wie Söldner, die zu dem gehen, der mehr bezahlt.
Noch interessanter ist, dass Qubic, nachdem es bewiesen hat, dass es Monero besiegen kann, sich freiwillig zurückgezogen hat. Warum? Sie fürchten, Monero vollständig zu ruinieren und ihre eigenen Erträge zu gefährden. Denn ein großer Teil der dreifachen Erträge stammt immer noch aus dem Mining von XMR, $QUBIC ist nur als zusätzlicher Token-Belohnung gedacht. Wenn Monero zusammenbricht, kann Qubic nicht einfach davonkommen. Es ist besser, sich elegant zurückzuziehen, ein spektakuläres Marketing-Event zu veranstalten und die einstigen festen Anhänger von POW zu erniedrigen. Dieses Gefühl von „Ich kann dich töten, aber ich tue es nicht“ ist nicht ähnlich zu ihrem AGI-Slogan, der von Ungebundenheit zeugt?
—— Ist AI der wahre Totengräber von POW?
Abgesehen von den Auswirkungen des Monero-Vorfalls ist dies für die meisten allgemeinen Hardware-POW-Ketten tatsächlich eine große negative Nachricht, denn wenn diese POW-Ketten untergehen, wird nicht POS sie töten, sondern möglicherweise AI.
Warum sage ich das? Früher war Rechenleistung „fest“, jeder konzentrierte sich auf sein eigenes Geschäft, aber im AI-Zeitalter wird Rechenleistung vollständig „flüssig“, CPU- und GPU-Rechenleistung fließt wie Wasser nur dorthin, wo die Erträge höher sind, und die „Miner“, auf die sie angewiesen sind, könnten eines Tages zusammenkommen und eine Revolution anzetteln.
Obwohl Qubic kein Bösewicht ist, wird es unvermeidlich einige Wettbewerber geben, die diese Methode für böswillige Angriffe nutzen, wie zum Beispiel zuerst einen Coin leer zu verkaufen und dann 51% Rechenleistung zu mieten, um anzugreifen, und nach dem Preisverfall Gewinne zu realisieren. Vor diesen Ketten stehen nur zwei Wege: Entweder wie BTC die Miner festhalten oder weiterhin mit CPU/GPU minen und beten, nicht ins Visier genommen zu werden.
Ehrlich gesagt gibt es viele solcher Coins, Grin, Beam, Haven Protocol, ETC, RVN, Conflux... also sieh mal, das ist nicht nur ein oder zwei Coins, sondern das gesamte CPU/GPU-Mining-Ökosystem steht am Abgrund.
Das Fatale ist, dass die Nachfrage nach AI-Rechenleistung exponentiell wächst und es so viele AI-Rechenleistungsaggregationsplattformen gibt. Wenn alle anfangen, den Markt mit hohen Preisen und Anreizen für den Kauf von Rechenleistung zu stören, wird die Sicherheitslinie vieler POW-Ketten wahrscheinlich zusammenbrechen.
—— Ein ironisches Paradoxon
Der Grund, warum ich sage, dass dies absurd ist, liegt darin, dass Qubic selbst eine AI-Kette ist. Selbst wenn sie den Angriff auf Monero zurückziehen, werden sie sich dennoch selbst schaden. Der Grund ist einfach: Jede AI-Kette, die Rechenleistung benötigt, sollte keinen PoW-Konsens verwenden. Denn Rechenleistung wird zur Aufrechterhaltung der Sicherheit verwendet, AI kann dann nicht trainiert werden; Rechenleistung wird zum Trainieren von AI verwendet, die Kette ist dann unsicher.
Daher verwenden die meisten AI-Projekte, Bittensor PoS, Render ein Reputationssystem, kaum jemand wagt es, POW zu berühren, alle wissen das, aber Qubic hat direkt dumm seine eigene Schwäche zur Schau gestellt.
Qubics jüngste Aktion, die oberflächlich ein technisches Ereignis ist, ist im Wesentlichen eine Lektion für die gesamte Crypto-Branche: In einer Zeit, in der Rechenleistung frei fließt, ist Loyalität ein Luxus, den sich die meisten POW-Ketten nicht leisten können.
Qubic hat mit diesem Angriff bewiesen, dass traditionelles PoW leicht durch wirtschaftliche Anreize überwunden werden kann. Obwohl es selbst behauptet, „nützlichen PoW“ zu haben, hängt es im Grunde auch von diesen „Söldner“-Rechenleistungen ab, die jederzeit von höheren Bietern gekauft werden können.
Revolutionäre könnten auch von den nächsten Revolutionären revolutioniert werden.
Hinweis: Abgesehen von der Absurdität und der unbekannten Angst, die einige POW-Ketten verspüren, können wir zwei Fakten sicher bestätigen: 1. BTC ist wirklich beeindruckend; 2. @VitalikButerin hat wirklich Weitblick.
Ich wollte nur eine oberflächliche Erklärung geben, auf weitere technische Details warte ich auf die weiteren Beiträge von @evilcos.

38,94K
Alle rufen, dass der Bullenmarkt kommt, aber kann man wissen, dass die Methodologie zur Suche nach Markt-Alphas und -Betas in dieser Welle völlig anders ist? Hier sind einige Beobachtungen:
1) OnChain+OffChain TradiFi wird zur Hauptnarration:
Stabilcoin-Infrastruktur: Stabilcoins werden zum "Blut", das traditionelle Finanzen und DeFi-Infrastruktur verbindet, indem sie die cross-chain Liquidität von Stabilcoins, die APY Yield-Differenzen und neue innovative Erweiterungen sichern;
BTC/ETH Mikrostrategie "Coin-Stock" Effekt: Es wird zum Trend, dass börsennotierte Unternehmen Krypto-Assets in ihre Bilanz aufnehmen, und es wird entscheidend, potenzielle hochwertige Ziele mit "quasi-Reserve-Asset"-Potenzial zu finden;
Der Aufstieg innovativer Wege zu Wall Street: DeFi-Protokolle, die speziell für Institutionen entwickelt wurden, konforme Ertragsprodukte und On-Chain-Asset-Management-Tools werden massive Mittel anziehen. Das ursprüngliche "Code is Law" wurde zu "Compliance is King";
2) Die Beschleunigung der reinen nativen Krypto-Narration zur Wahrheitsfindung:
Die Ethereum-Ökologie erlebt eine Welle der Wiederbelebung: Der Preis von $ETH wird die technische Narration der Ethereum-Ökologie neu entfachen und die frühere Rollup-Centric-Strategie ersetzen; die neue ZK-Centric wird zur Hauptmelodie;
Leistungsstarker Layer1-Kraftvergleich: Es geht nicht mehr um TPS-Wettbewerbe, sondern darum, wer echte wirtschaftliche Aktivitäten anziehen kann. Die Kernindikatoren umfassen: den Anteil des TVL von Stabilcoins, die native APY-Rendite, die Tiefe der institutionellen Zusammenarbeit usw.;
Der letzte Sonnenuntergang der Altcoins: Die allgemeine große Altcoin-Saison hat das grundlegende Problem unzureichender finanzieller Dynamik. Teilweise Altcoins werden "Dead Cat Bounce"-Märkte erleben, und diese Arten von Zielen haben folgende Merkmale: Konzentration der Token, Aktivität der Community, die Fähigkeit, neue Konzepte wie AI/RWA zu integrieren;
3) MEME-Coins entwickeln sich von Spekulationswerkzeugen zu Marktstandards:
Kapitaleffizienz: Traditionelle Altcoins haben überbewertete Marktkapitalisierungen und erschöpfte Liquidität, während MEME-Coins mit ihrem fairen Launch und hohen Umschlagraten zu den neuen Lieblingen des Kapitals werden und einen Großteil des sterbenden Altcoin-Marktes erobern werden;
Aufmerksamkeitsökonomie dominiert: Der Einfluss von KOLs, der Aufbau von Community-Kultur und das Hot-FOMO-Modell bleiben die Kernkompetenzen, und die Liquiditätsverteilung folgt weiterhin dem Aufmerksamkeitsgesetz;
Neue Indikatoren für die Stärke von Public Chains: Die Aktivität des MEME-Coins-Marktes wird ein wichtiger Standard zur Bewertung der umfassenden Stärke von Public Chains sein.
21,96K
Kommt das Swift-System, das zur Blockchain-Welt gehört? @mindnetwork hat ein on-chain Verschlüsselungsnachrichtenprotokoll auf Basis der FHE-Technologie (Fully Homomorphic Encryption) eingeführt, um eine Infrastruktur zu schaffen, die dem traditionellen interbanklichen Nachrichtensystem ähnelt, um traditionelle Finanzanlagen auf die Blockchain zu bringen. Was genau passiert hier?
1) Mind Network ist ein vertikaler Technologielieferant für FHE. Da diese Technologie hauptsächlich Probleme im Zusammenhang mit Privatsphäre und Verschlüsselung löst, kann sie flexibel in ZK, DePIN, KI und dem derzeit heiß diskutierten RWA-Sektor eingesetzt werden.
Im ZK-Technologiestack kann FHE als wichtige Ergänzung zu Zero-Knowledge-Proofs dienen und Datenschutz auf verschiedenen Ebenen bieten. Im DePIN-Netzwerk kann FHE sensible Daten von verteilten Geräten schützen und gleichzeitig die notwendige Zusammenarbeit im Netzwerk ermöglichen. Im Bereich der KI-Agenten kann FHE es KI ermöglichen, zu trainieren und zu schlussfolgern, ohne Benutzerdaten preiszugeben, was für KI-Anwendungen in sensiblen Bereichen wie Finanzen und Gesundheitswesen von entscheidender Bedeutung ist.
Im RWA-Bereich kann FHE die Compliance-Probleme lösen, die beim Onboarding traditioneller Finanzanlagen auf die Blockchain auftreten. Wie ist das zu verstehen?
Die Blockchain hat von Natur aus eine fehlende "Semantikebene"; Transaktionsaufzeichnungen, die nur Adressen und Beträge enthalten, können den Anforderungen des Finanzgeschäfts an Transaktionszweck, Vertragskontext, Identitätsnachweis usw. nicht gerecht werden. Das on-chain Verschlüsselungsnachrichtenprotokoll von Mind Network kann jeder Blockchain-Transaktion eine "verschlüsselte Notizspalte" hinzufügen, die es ermöglicht, sensible Informationen wie Eigentumsnachweise, Akkreditive und Sprachgenehmigungen sicher zu übertragen, wodurch sowohl die Privatsphäre geschützt als auch die Anforderungen an die regulatorische Prüfung erfüllt werden.
2) Aus technischer Sicht kann diese technische Lösung Web3-Wallets von reinen Übertragungswerkzeugen zu verschlüsselten Kommunikationsidentitäten aufwerten. Traditionelle On-Chain-Lösungen verlassen sich entweder auf zentralisierte Institutionen zur Verarbeitung von Compliance-Informationen oder machen Informationen vollständig öffentlich und transparent, was beides keine idealen Lösungen sind.
Mit der Unterstützung von FHE-basierten Datenschutz-Compliance-Lösungen sind die konkreten Anwendungsszenarien sehr anschaulich: Zum Beispiel bei grenzüberschreitenden Zahlungen mit Stablecoins kann gleichzeitig mit der Überweisung der Zweck der Transaktion und KYC-Informationen verschlüsselt übertragen werden, sodass Regulierungsbehörden die Compliance überprüfen können, ohne die Klartextdaten zu erhalten; oder bei der Tokenisierung von Immobilien können Bewertungsberichte, Kaufverträge und andere sensible Dokumente verschlüsselt an die On-Chain-Transaktion gebunden werden, wodurch sowohl der Vermögensfluss als auch der Schutz von Geschäftsgeheimnissen gewährleistet werden.
Die FHE Bridge von Mind Network hat 650.000 aktive Adressen und 3,2 Millionen verschlüsselte Transaktionen angesammelt, was die Machbarkeit der technischen Lösung beweist. Natürlich zielt diese Zahl nur darauf ab, einen ausreichend starren Marktbedarf zu erfassen und zu validieren; wie groß die Marktchancen und -räume sind, ist wohl noch schwer abzuschätzen.
3) Viele rein native Blockchain-Builder sind besorgt über die Richtung und die Bereiche des Builds. Egal ob an Vitalik oder an VC, oder einfach nur als Teil der Fomo-Hot-Topic-Erzählung, ich denke, dass wir uns in Zukunft auf die Wall Street konzentrieren müssen, um die von der US-Regierung freundliche Crypto-Regulierung zu nutzen und so viel wie möglich die grundlegende Infrastruktur und sogar reine Werkzeugdienste bereitzustellen, die Wall Street benötigt, um in den Krypto-Bereich einzutreten, alles gut.
Wenn traditionelle Finanzgiganten wie BlackRock und JPMorgan aktiv in die Tokenisierung von Vermögenswerten investieren, sind sie am meisten daran interessiert, ob die Blockchain Überweisungen durchführen kann, sondern ob sie die KYC-, AML- und andere regulatorischen Standards erfüllen kann. Das ist der wahre Grund, warum Mind Network frühzeitig in den RWA-Sektor einsteigt. Angenommen, der RWA-Markt könnte bis 2034 ein Volumen von 30 Billionen Dollar erreichen, wie wird dann die Nachfrage nach Compliance-Infrastruktur in diesem Umfang aussehen?
Natürlich können alle Erwartungen über die Aufteilung des RWA-Blaumeer-Marktes geäußert werden. Aber entscheidend ist, die richtige ökologische Position zu finden, so wie AWS in der Cloud-Computing-Ära Rechenleistung und Cloudflare CDN bereitstellt, entwickelt sich auch die Blockchain-Infrastruktur in Richtung vertikaler Spezialisierung, und einige vertikale, harte Technologiedienstleistungsrichtungen müssen ebenfalls ihre eigene professionelle Aufteilung finden.
Offensichtlich konzentriert sich Mind Network auf den FHE-Technologiestack und bietet "Encryption as a Service"-Fähigkeiten für verschiedene Sektoren an. Daher ist es nicht überraschend, ihre Präsenz in den Bereichen ZK, KI und RWA zu sehen.
Natürlich hängt der Wert von Technologielieferanten letztendlich von der Explosionskraft der downstream Anwendungen ab. Ob es sich um die erwarteten 30 Billionen Dollar im RWA oder den Autonomisierungsprozess von KI-Agenten handelt, es bedarf noch der Zeit zur Validierung.

Mind Network7. Aug., 16:50
✉️ Verschlüsselte Nachrichten Onchain
Reale Vermögenswerte (#RWAs) wie Immobilien, Stablecoin-Abwicklungen und grenzüberschreitende Finanzen erfordern mehr als nur Wertübertragungen.
Diese Anwendungsfälle hängen von Transaktionen ab, die Zweck, Identität und Prüfpfade mit Compliance und Datenschutz tragen.
#SWIFT standardisiert Nachrichten für Compliance und Abwicklung. Blockchains fehlen immer noch eine native verschlüsselte Möglichkeit, diese Attribute auszudrücken.
Verschlüsselte Nachrichten Onchain ist ein neues Protokoll, das es Wallets ermöglicht, verschlüsselte, strukturierte und überprüfbare Nachrichten direkt neben jeder Onchain-Transaktion zu senden.
✅ Automatisch strukturierter Text für semantische Klarheit
✅ Wallet-basiertes Keygen für End-to-End-Verschlüsselung
✅ Verschlüsselte Nachrichten, die mit Transaktionen verknüpft sind, mit Prüfpfaden und Zugriffskontrolle
Verschlüsselte Nachrichten Onchain kombiniert vollständig homomorphe Verschlüsselung (#FHE) mit herkömmlichen kryptografischen Techniken, um sensible Daten in sichere Onchain-Payloads zu verwandeln, die nur für die vorgesehenen Empfänger zugänglich sind.
Erfahren Sie mehr:

6,91K
Kürzlich diskutierte Eowyn Chen, CEO von @TrustWallet, auf dem YouTube-Kanal "The Rollup" mit Ram Kumar, einem Kernbeitragenden von @OpenledgerHQ, über die tiefgreifende Zusammenarbeit zwischen beiden. Hier sind einige wertvolle Erkenntnisse, die ich teilen möchte:
1) Ein wenig kaltes Wasser auf die "fette Wallet"-Theorie
Im Interview erwähnte Andy die in der Branche verbreitete "fette Wallet"-Theorie – dass Wallets, die Zugangskanäle für Benutzer haben, verschiedene Dienste vertikal integrieren können? Aber Eowyn Chens Antwort war sehr interessant; sie erklärte, dass das Geschäft mit Endverbrauchern in der Tat sehr schwierig ist, da es viel Kundenunterstützung, höhere Sicherheitsverantwortung und häufige Anpassungen der Produktstrategie erfordert.
Viele Menschen denken, dass die 200 Millionen Downloads von Trust Wallet ein gutes Geschäft für Wallets bedeuten, aber der CEO betont selbst die Schwierigkeiten, die mit der Bedienung von Endverbrauchern verbunden sind. Das zeigt, dass eine Wallet nicht einfach "fett" werden kann, nur weil man es will; die Beziehung zu den Nutzern ist zwar wertvoll, aber die Pflege kostet auch viel. Diese Sichtweise ist recht realistisch und verdeutlicht die tatsächliche Situation vieler Wallet-Anbieter.
Wichtiger ist, dass sie erwähnte, dass nicht alle Werte an der Front konzentriert sind; alle Teile der Wertschöpfungskette sollten fair entwickelt werden. Diese Sichtweise ist ein wenig kaltes Wasser auf die "fette Wallet"-Theorie und erklärt, warum Trust Wallet bereit ist, mit Infrastrukturprojekten wie OpenLedger zusammenzuarbeiten.
2) Ist der Wendepunkt für spezialisierte KI erreicht?
Ram Kumar's Einschätzung des Entwicklungsweges von KI ist bemerkenswert. Er glaubt, dass KI sich von Allgemeinheit zu Spezialisierung entwickelt, ähnlich wie Google aus der allgemeinen Suche vertikale Anwendungen wie LinkedIn und YouTube hervorgebracht hat. Allgemeine KI wie ChatGPT wird wie ein Betriebssystem sein, während in Zukunft mehr spezialisierte Modelle für bestimmte Anwendungsfälle entstehen werden.
Das stimmt mit meiner vorherigen Analyse der Trends in der Web3AI-Branche überein. Trust Wallet stellte bei dem Versuch, KI-Funktionen zu implementieren, fest, dass allgemeine Modelle die spezifischen Probleme im Kryptobereich nicht lösen können, was diesen Trend bestätigt. Und genau, der Aufbau spezialisierter KI-Modelle erfordert qualitativ hochwertige Daten aus vertikalen Bereichen, was OpenLedger zu lösen versucht.
3) Die "unentgeltliche Arbeit"-Dilemma der Datenbeiträge
Ram Kumar erklärte, dass KI eine "Industrie im Wert von Billionen Dollar ist, die auf unentgeltlicher Arbeit basiert"; diese Kritik ist ziemlich scharf. KI-Unternehmen trainieren Modelle, indem sie Daten aus dem Internet erfassen, während die Datenbeiträger keinen Anteil daran erhalten, was in der Tat ein strukturelles Problem darstellt.
OpenLedgers Lösung besteht darin, Datenbeiträgern langfristige Gewinnbeteiligungen an den KI-Modellen zu gewähren, anstatt die Daten einmalig zu verkaufen. In Kombination mit der globalen Zahlungsfähigkeit der Wallet könnte theoretisch eine reibungslose grenzüberschreitende Wertverteilung erreicht werden.
Aber hier gibt es ein zentrales Problem: Wie kann die Datenqualität sichergestellt werden? Ram selbst räumt ein, dass 90 % der Open-Source-Beiträge auf Plattformen wie Hugging Face nicht nützlich sind. Wenn die beigetragenen Daten von begrenztem Wert sind, nützt auch der beste Anreizmechanismus nichts.
Das war's.
Eowyn Chen verglich die Selbstverwahrung mit dem "Recht auf Waffenbesitz" und betonte, dass KI-Funktionen optional sind, sodass die Benutzer zwischen Bequemlichkeit und Sicherheit selbst wählen können. Diese Produktphilosophie ist richtig, aber wie man "die Optionen klar präsentiert", erfordert viel Produktdesign-Fähigkeit.
Ram erwähnte auch eine interessante Einschätzung: Krypto-Wallets sind der einzige Weg für Benutzer, weltweit Belohnungen für Datenbeiträge zu erhalten. Das bedeutet, dass die Rolle der Wallets sich von einem reinen Vermögensverwaltungswerkzeug zu einer Infrastruktur für digitale Identität und Wertverteilung entwickeln könnte.
Hinweis: Wer mehr erfahren möchte, kann den YouTube-Kanal von The Rollup besuchen und sich dieses Interview ansehen.


The Rollup5. Aug., 08:31
NEUE EP: Die neue Ära der Distribution mit Ram Kumar & Eowyn Chen
In der heutigen Episode setzt sich @ayyyeandy mit @Ramkumartweet von @OpenledgerHQ und @EowynChen von @TrustWallet zusammen, um Folgendes zu erkunden:
>Die "Fat Wallet Thesis" vs. Fat Protocol Theory
>Wie Trust Wallet plant, KI zu integrieren
>Die Sicherheitsrisiken von KI-gesteuerten Wallets
>Die Vision von OpenLedger zur Belohnung von Datenbeiträgen
>Warum generische KI niemals für DeFi funktionieren wird
Links zur vollständigen Episode unten.
Zeitstempel:
00:00 Intro
00:20 Rams und Eowyns Hintergrund in Krypto & KI
02:50 Der Nutzerwert von Trust Wallet
07:43 Starknet-Werbung
08:10 OpenLedger zur KI-Evolution
11:03 Zukunft der Wallet-Schnittstellen
17:12 Selbstverwahrungs-KI-Richtlinien
21:22 Mantle-Werbung
22:02 Bessere KI-Modelle trainieren
28:19 Was kommt als Nächstes für OpenLedger und Trust Wallet
5,18K
Nachdem ich über die neuesten Äußerungen von @VitalikButerin zu schnellen Auszahlungen auf L2 nachgedacht habe, finde ich sie ziemlich interessant. Kurz gesagt: Er glaubt, dass die Möglichkeit, innerhalb einer Stunde schnell abzuheben, wichtiger ist als das Erreichen von Stage 2. Die Logik hinter dieser Prioritätenänderung ist es wert, näher betrachtet zu werden:
1) Die einwöchige Wartezeit für Auszahlungen ist in der praktischen Anwendung tatsächlich ein großes Problem geworden. Es beeinträchtigt nicht nur die Benutzererfahrung, sondern treibt auch die Kosten für Cross-Chain-Transaktionen in die Höhe.
Zum Beispiel müssen Liquiditätsanbieter bei intent-basierten Brückenlösungen wie ERC-7683 eine Woche lang Kapital binden, was die Cross-Chain-Kosten direkt erhöht. Das Ergebnis ist, dass Benutzer gezwungen sind, weniger vertrauenswürdige Multi-Signatur-Lösungen zu wählen, was genau dem ursprünglichen Ziel von L2 widerspricht.
Deshalb hat Vitalik ein 2-of-3-Mischbeweissystem (ZK+OP+TEE) vorgeschlagen, bei dem ZK und TEE sofortige Verfügbarkeit bieten können, während TEE und OP ausreichend Produktionsverifizierung haben. Theoretisch kann jedes beliebige Paar von Systemen die Sicherheit gewährleisten, wodurch die reinen Wartezeiten auf die vollständige Reifung der ZK-Technologie vermieden werden.
2) Ein weiterer Punkt ist, dass Vitaliks neue Äußerungen den Eindruck erwecken, dass er pragmatischer geworden ist? Von einem idealistischen jungen Mann, der voll von "dezentralen Kreuzzügen" und "Anti-Zensur"-Idealen sprach, hat er sich jetzt zu einem Pragmatiker gewandelt, der harte Kennzahlen vorgibt: 1 Stunde Auszahlung, 12 Sekunden Endgültigkeit, alles wird einfach und direkt.
Früher haben alle den Grad der Dezentralisierung in Stage 2 vorangetrieben, jetzt sagt V, dass schnelle Auszahlungen wichtiger sind, was gleichbedeutend ist mit einer Neupriorisierung des gesamten L2-Segments. Das ist tatsächlich ein Schritt in Richtung der ultimativen Form der „Rollup-Centric“-Strategie, die Ethereum L1 zu einer einheitlichen Abrechnungs- und Liquiditätszentrale machen soll. Sobald schnelle Auszahlungen und Cross-Chain-Konsolidierung erreicht sind, wird es für andere Blockchains schwieriger, die Ethereum-Ökologie herauszufordern.
Der Grund, warum Xiao V so handelt, ist, dass der Markt ihm bereits mit den Füßen abgestimmt hat. Der Markt interessiert sich nicht für die technischen Slogans der Dezentralisierung, sondern legt mehr Wert auf Erfahrung und Effizienz. Dieser Wandel von „idealistisch getrieben“ zu „ergebnisorientiert“ spiegelt wider, dass sich die gesamte Ethereum-Ökologie in eine kommerziellere und wettbewerbsorientierte Richtung entwickelt.
3) Die Frage ist, um die langfristigen Ziele der realen Erfahrung und des Infrastrukturaufbaus zu erreichen, wird die Ethereum-Ökologie wahrscheinlich die Reife und Kostenkontrolle der ZK-Technologie vorantreiben.
Nach der aktuellen Situation zu urteilen, macht die ZK-Technologie zwar schnelle Fortschritte, aber die Kosten bleiben eine reale Einschränkung. 500k+ Gas für den ZK-Beweis bedeutet, dass kurzfristig nur eine stündliche Einreichungsfrequenz möglich ist. Um das ultimative Ziel von 12 Sekunden zu erreichen, muss man auf Durchbrüche in der Aggregationstechnologie angewiesen sein.
Die Logik dahinter ist klar: Einzelne Rollups haben zu hohe Kosten für häufige Beweisübermittlungen, aber wenn die Beweise von N Rollups zu einem aggregiert werden können, wird es wirtschaftlich machbar, die Kosten auf jeden Slot (12s) zu verteilen.
Dies stellt auch eine neue technische Route für die Wettbewerbslandschaft von L2 dar. Diejenigen L2-Projekte, die als Erste Durchbrüche bei der Optimierung von ZK-Beweisen erzielen, könnten einen Platz finden, während die, die weiterhin hartnäckig an Optimism und optimistischen Beweisen festhalten, wahrscheinlich den Kurs verlieren werden.

vitalik.eth7. Aug., 00:29
Es ist erstaunlich zu sehen, dass so viele große L2s jetzt auf Stufe 1 sind.
Das nächste Ziel, auf das wir hinarbeiten sollten, sind meiner Meinung nach schnelle (<1h) Abhebungszeiten, ermöglicht durch Validitäts- (auch bekannt als ZK) Nachweissysteme.
Ich halte dies für noch wichtiger als Stufe 2.
Schnelle Abhebungszeiten sind wichtig, denn eine Woche auf eine Abhebung zu warten, ist einfach viel zu lang für die Menschen, und selbst für absichtsbasiertes Bridging (z. B. ERC-7683) wird die Kapitalkosten zu hoch, wenn der Liquiditätsanbieter eine Woche warten muss. Dies schafft große Anreize, stattdessen Lösungen mit inakzeptablen Vertrauensannahmen (z. B. Multisigs/MPC) zu verwenden, die den ganzen Sinn von L2s anstelle von vollständig unabhängigen L1s untergraben.
Wenn wir die nativen Abhebungszeiten kurzfristig auf unter 1h und mittelfristig auf 12s reduzieren können, dann können wir das Ethereum L1 weiter als den Standardort zur Ausgabe von Vermögenswerten und das wirtschaftliche Zentrum des Ethereum-Ökosystems festigen.
Um dies zu erreichen, müssen wir uns von optimistischen Nachweissystemen entfernen, die von Natur aus mehrere Tage warten müssen, um abzuheben.
Historisch gesehen war die ZK-Nachweistechnologie unreif und teuer, was optimistische Nachweise zur klugen und sicheren Wahl machte. Aber in letzter Zeit ändert sich dies schnell. ist ein ausgezeichneter Ort, um den Fortschritt der ZK-EVM-Nachweise zu verfolgen, die sich schnell verbessern. Die formale Verifizierung von ZK-Nachweisen schreitet ebenfalls voran.
Früher in diesem Jahr habe ich eine Strategie für ein 2-von-3-ZK + OP + TEE-Nachweissystem vorgeschlagen, die das Gleichgewicht zwischen Sicherheit, Geschwindigkeit und Reife hält:
* 2 von 3 Systemen (ZK, OP) sind vertrauenslos, sodass kein einzelner Akteur (einschließlich TEE-Hersteller oder Seitenkanalangreifer) das Nachweissystem durch Verletzung einer Vertrauensannahme brechen kann.
* 2 von 3 Systemen (ZK, TEE) sind sofort, sodass Sie im Normalfall schnelle Abhebungen erhalten.
* 2 von 3 Systemen (TEE, OP) sind seit Jahren in verschiedenen Kontexten in Produktion.
Dies ist ein Ansatz; vielleicht entscheiden sich die Leute stattdessen für ZK + ZK + OP-Tiebreak oder ZK + ZK + Sicherheitsrat-Tiebreak. Ich habe hier keine starken Meinungen, mir geht es um das zugrunde liegende Ziel, das schnell (im Normalfall) und sicher sein soll.
Mit solchen Nachweissystemen wird der einzige verbleibende Engpass für schnelle Abwicklungen die Gaskosten für die Einreichung von Nachweisen on-chain. Deshalb sage ich kurzfristig einmal pro Stunde: Wenn Sie versuchen, einen 500k+ Gas ZK-Nachweis (oder einen 5m Gas STARK) viel häufiger einzureichen, entstehen hohe zusätzliche Kosten.
Langfristig können wir dies mit Aggregation lösen: N Nachweise von N Rollups (plus Transaktionen von Nutzern des Datenschutzprotokolls) können durch einen einzigen Nachweis ersetzt werden, der die Gültigkeit der N Nachweise beweist. Dies wird wirtschaftlich, um einmal pro Slot eingereicht zu werden, und ermöglicht das Endspiel: nahezu sofortige native Vermögensbewegungen über L2 durch das L1.
Lass uns zusammenarbeiten, um dies zu verwirklichen.
14,16K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten