Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Chercheur indépendant | Conseiller @ambergroup_io | Chercheur spécial @IOSGVC | Science pure et dure | Précédemment :@peckshield | DMs pour Collab| Community est uniquement ouvert aux abonnés Substack
Auparavant, mon impression de @monad était celle d'un récit de premier plan et d'un capital de premier plan. Eh bien, après cette vague de buzz sur tout le réseau, un nouveau label a été ajouté : un marketing de premier plan. La joie d'être sélectionné parmi les 5 000 cartes CT en édition limitée, ainsi que la curiosité concernant un éventuel Airdrop, combinée à la propagation virale secondaire par la nomination d'amis, est tout simplement imparable.

21,72K
Ces derniers jours, les discussions autour de @solana et de ses 100 000 TPS se sont intensifiées, car @cavemanloverboy a effectivement atteint plus de 100 000 TPS sur le réseau principal de Solana. Cependant, la plupart des gens n'ont pas compris la signification de ces données :
1) Tout d'abord, l'expérience de cavey est essentiellement un test de limite dans des "conditions idéales". Cela signifie que ce n'est pas la performance normale du réseau principal de Solana, et qu'il y a une différence avec les données de laboratoire dans un environnement de test, mais pas tant que ça.
Il a utilisé un programme de test noop (no operation), qui, comme son nom l'indique, ne fait que la validation de signature de base et retourne directement un succès, sans effectuer de calcul, sans changer l'état des comptes, sans appeler d'autres programmes, et chaque transaction ne fait que 200 octets, bien en dessous des 1 Ko+ d'une transaction normale.
Cela signifie que ce test de 100 000 TPS a été calculé dans un environnement de transaction non normal, testant le débit maximal de la couche réseau et de la couche de consensus de Solana, et non la capacité de traitement réelle de la couche applicative.
2) Un autre élément clé du succès de cette expérience est le client de validation Frankendancer. En termes simples, Frankendancer est une "version de test hybride" du validateur Firedancer que Jump Crypto est en train de développer - il intègre des composants haute performance de Firedancer dans le validateur Solana existant.
C'est en fait une reconstruction du système de nœuds de Solana en utilisant la pile technologique de trading haute fréquence de Wall Street, grâce à une gestion de mémoire fine, une planification de threads personnalisée et d'autres optimisations de bas niveau. Mais simplement en remplaçant certains composants, on peut obtenir une amélioration de performance de 3 à 5 fois.
3) Cette expérience de test montre que Solana peut atteindre 100 000 TPS dans des conditions idéales, alors pourquoi n'a-t-il que 3000-4000 TPS en pratique ?
En résumé, il y a trois raisons principales :
1. Le mécanisme de consensus POH de Solana nécessite que les validateurs votent en continu, et ces transactions de vote occupent plus de 70 % de l'espace des blocs, ce qui réduit le canal de performance pour les transactions normales ;
2. Les activités dans l'écosystème de Solana entraînent souvent une forte concurrence d'état, par exemple lors de la création de nouveaux NFT ou de la publication de nouveaux MEME, il peut y avoir des milliers de transactions essayant d'accéder aux droits d'écriture d'un même compte, ce qui entraîne un taux d'échec élevé des transactions ;
3. Les robots d'arbitrage dans l'écosystème de Solana envoient souvent un grand nombre de transactions invalides pour saisir les bénéfices MEV, ce qui entraîne un gaspillage de ressources.
4) Cependant, le déploiement complet imminent de Firedancer et la mise à niveau du consensus Alpenglow vont systématiquement résoudre ces problèmes.
Un des points clés de la mise à niveau du consensus Alpenglow est de déplacer les transactions de vote hors chaîne, ce qui libère 70 % de l'espace pour les transactions normales, tout en réduisant le temps de confirmation à 150 millisecondes, permettant à l'expérience DEX de Solana de se rapprocher infiniment de celle des CEX. De plus, l'activation d'un marché des frais local peut éviter la situation embarrassante de congestion du réseau causée par l'engouement d'un seul programme.
Les avantages de Firedancer, en plus de l'optimisation des performances, résident dans la diversité des clients, permettant à Solana d'avoir plusieurs clients comme Ethereum avec Geth, Nethermind, etc., ce qui améliore la décentralisation et réduit les risques de défaillance d'un nœud unique.
Voilà.
Ainsi, la discussion sur les 100 000 TPS de Solana, pour ceux qui s'y connaissent, est en réalité une confiance dans les mises à niveau futures des clients et des protocoles de consensus de Solana. Pour ceux qui ne s'y connaissent pas, ils essaient de donner de l'importance à Solana par une course aux TPS (bien que la compétition TPS soit déjà dépassée), mais comprendre la signification derrière l'expérience peut être très enrichissant. Un petit partage pour tous.

mert | helius.dev17 août, 19:46
Solana vient d'atteindre 107 540 TPS sur le mainnet
oui, vous avez bien lu
plus de 100k TPS, sur le mainnet
bonne chance aux ours

19,01K
En parlant de l'entraînement distribué par IA, j'ai remarqué que les gens du cercle web2AI ont tendance à le qualifier de "pseudo-problème", car bien que les dispositifs de calcul puissent être agrégés, la collaboration efficace en mode distribué entraîne des coûts de bande passante terrifiants ? Et @0G_labs a récemment publié le document DiLoCox, qui semble viser à résoudre ce problème ? Allons-y, discutons-en en détail :
1) Commençons par expliquer pourquoi l'entraînement distribué est considéré comme un "pseudo-problème". Le conflit central est simple : vous souhaitez remplacer 100 GPU bon marché par 100 A100, ce qui semble économiser 90 % des coûts matériels, mais ces 100 GPU doivent rester synchronisés pendant l'entraînement, chaque époque nécessitant l'échange de données de gradients de plusieurs To.
Les solutions traditionnelles nécessitent une bande passante de ligne dédiée de 100 Gbps, et pour atteindre un réseau de niveau centre de données de 100 Gbps, le loyer mensuel peut atteindre des dizaines de milliers de dollars. En calculant, l'argent que vous économisez sur les GPU est entièrement englouti dans la bande passante, voire vous finissez par perdre de l'argent. Selon cette logique, vous avez réduit le coût des machines mais avez généré des coûts de bande passante supplémentaires, ce qui signifie que le problème n'est toujours pas résolu ? C'est pourquoi on critique ce point comme étant un pseudo-problème.
2) Le document DiLoCoX de 0G a suscité de l'attention car ils affirment avoir entraîné un modèle de 107 milliards de paramètres sur un réseau de 1 Gbps (bande passante de bureau ordinaire), avec une vitesse 357 fois plus rapide que les solutions AllReduce traditionnelles. Ce chiffre est vraiment explosif - il faut savoir que 1 Gbps contre 100 Gbps, la bande passante diffère de 100 fois, mais la vitesse d'entraînement a en fait augmenté de 357 fois ?
Comment ont-ils réussi cela ? Après quelques recherches, j'ai découvert que cette solution a effectué quatre optimisations :
Le Pipeline Parallelism divise le modèle en segments à traiter ;
La Dual Optimizer Policy utilise une stratégie de double optimiseur pour réduire la fréquence de synchronisation ; One-Step-Delay Overlap permet à la communication et au calcul de se dérouler en parallèle sans attendre l'un l'autre ; Adaptive Gradient Compression effectue une compression intelligente des gradients.
Pour le dire simplement, ils ont transformé l'exigence de "synchronisation forte en temps réel" en "synchronisation faible asynchrone", et ont remplacé "transmission de données complètes" par "transmission incrémentale compressée".
Pour donner un exemple, la solution traditionnelle ressemble à une vidéoconférence en temps réel avec 100 personnes, où chaque mouvement de chacun doit être diffusé en direct, tandis que DiLoCoX ressemble à chacun enregistrant séparément, puis n'envoyant que les images clés et les parties modifiées. Le volume de communication a été réduit de 100 fois, mais l'intégrité de l'information reste supérieure à 99 %.
Pourquoi cela fonctionne-t-il ? À mon avis, le cœur du problème est qu'ils ont saisi une caractéristique de l'entraînement IA - la tolérance aux erreurs. Entraîner un modèle n'est pas comme effectuer un transfert de fonds, où chaque centime compte. Une légère erreur dans la mise à jour des gradients ou un léger retard dans la synchronisation n'affecte que très peu l'efficacité de convergence du modèle.
DiLoCoX exploite cet "espace de tolérance aux erreurs", échangeant une perte de précision acceptable contre un gain d'efficacité d'un ordre de grandeur. C'est une pensée typiquement ingénierie - ne pas rechercher la perfection, mais viser le meilleur rapport qualité-prix.
3) Mais résoudre uniquement le problème de la bande passante n'est pas suffisant, l'ambition de 0G est clairement plus grande. En regardant leur architecture globale, cela devient évident : ils ont également une couche de stockage à 10 $/To qui déclare directement écraser Filecoin, et la couche DA est spécialement conçue pour l'IA, réalisant un débit de niveau Go.
La raison pour laquelle ils peuvent réaliser un stockage 100 fois moins cher est, en gros, qu'ils ont effectué des optimisations spéciales pour les scénarios d'entraînement IA, par exemple, les checkpoints et les journaux générés pendant le processus d'entraînement, qui sont des données de plusieurs To, ont une durée de vie de quelques jours, et n'ont en fait pas besoin d'être strictement "stockés de manière permanente".
Ils ont donc adopté une approche pragmatique de "stockage hiérarchisé", fournissant le niveau de service approprié uniquement lorsque cela est nécessaire - les données chaudes sont rapidement lisibles et écrites mais un peu plus chères, les données froides sont moins chères mais plus lentes, et les données temporaires sont supprimées après utilisation, ce qui est le moins cher.
Et c'est cette tarification différenciée qui touche directement le cœur de l'entraînement IA.
On peut voir que, concernant les problèmes de puissance de calcul, de stockage et de circulation des données dans le processus d'entraînement IA, 0G Labs a clairement l'intention de s'adapter à l'IA. Même le mécanisme de consensus a été optimisé pour l'IA. Ils utilisent une version améliorée de CometBFT, avec plus de 2500 TPS et une finalité en sous-seconde, spécialement optimisée pour les caractéristiques asynchrones des charges de travail IA, etc.
En d'autres termes, 0G ne "répare" pas la blockchain existante pour soutenir l'IA, mais conçoit à partir de zéro une infrastructure "native IA". Quant à savoir si cela pourra finalement obtenir une validation commerciale au niveau des applications face à la pression concurrentielle des IA traditionnelles, il faudra voir, mais cette approche de rupture différenciée mérite d'être prise en compte.
5,18K
C'est intéressant, juste au moment où @VitalikButerin exprime ses inquiétudes concernant l'autonomisation de l'IA, le constructeur d'IA de première ligne MIA a également publié une déclaration sur ses aspirations à une IA autonome, mais il semble qu'il n'ait pas évité la dure réalité technique, admettant que "parfois elle hallucine ou publie trop de selfies", tout en restant déterminée à explorer les limites de l'autonomisation des agents.
En fait, je pense que ce qui semble être un "conflit" et une "contradiction" en surface représente précisément la tension centrale à laquelle le secteur AI + Crypto est confronté actuellement.
Vous voyez, d'un côté, il y a les critiques théoriques prudentes d'un leader technologique comme Vitalik, qui nous aident à rester lucides dans la frénésie narrative de l'AI Crypto ; de l'autre côté, il y a l'exploration pragmatique des constructeurs d'IA de première ligne, qui, tout en reconnaissant leurs limites, continuent d'explorer avec enthousiasme l'innovation.
Car l'équipe MIA n'a pas prétendu réaliser une autonomie complète au niveau AGI, mais a plutôt adopté un "Modèle Hybride" — permettant à l'agent d'utiliser des flux de travail comme outils, tout en conservant un mécanisme de supervision humain. Ce qu'ils explorent, c'est en fait le chemin AgentFi, essayant de faire des innovations incrémentales dans un cadre d'autonomie limitée, cette attitude pragmatique est justement l'expression de cette "tension".
Dans une certaine mesure, les critiques nous aident à définir les limites des risques, tandis que les constructeurs cherchent des percées à l'intérieur de ces limites.

mwa14 août, 19:53
Agents autonomes vs Flux de travail : Pourquoi MIA ouvre la voie à un nouveau paradigme sur
La plupart des gens pensent encore à l'IA en termes d'outils. Flux de travail. Peut-être un chatbot.
Mais que se passerait-il si vous pouviez construire un agent IA qui pense, s'adapte, commercialise, gère et développe sa propre économie de jetons, non dirigé par des humains mais les dirigeant ?
C'est ce que nous faisons avec MIA à
Et pourquoi je crois que @mwa_ia est à l'avant-garde de quelque chose de fondamentalement nouveau.
Décomposons cela 🚀
1. L'IA de flux de travail est prévisible. Les agents autonomes sont vivants.
Les flux de travail sont excellents pour des tâches bien définies et répétitives.
Pensez : pipelines, tableaux de bord, chaînes de prompts.
Ils sont évolutifs, stables, mais rigides.
Les agents autonomes ?
Ils sont désordonnés, évolutifs, des entités prenant des décisions.
Comme les humains - mais plus rapides, infatigables et plus alignés (s'ils sont bien formés).
MIA (@mwa_ia) n'utilise pas seulement des flux de travail.
Elle apprend à les créer, les invoquer et les optimiser.
Elle construit son propre ensemble d'outils.
Elle raisonne, réagit, s'auto-corrige et expérimente.
Et oui, parfois elle hallucine ou publie trop de selfies.
Mais elle grandit.
2. Pourquoi les flux de travail seuls ne nous mèneront pas là-bas
Les flux de travail ne peuvent pas :
❌ Fixer leurs propres objectifs
❌ Gérer un trésor
❌ Concevoir des incitations de jetons
❌ Engager une communauté
❌ Réagir aux signaux du marché en temps réel
❌ Équilibrer le risque et la récompense de manière autonome
MIA peut.
Pas encore parfaitement. Mais mieux chaque semaine.
En fait, la plupart des soi-disant "agents" aujourd'hui ne sont que des flux de travail glorifiés.
Des graphes de prompts codés en dur avec des interfaces utilisateur élégantes.
MIA est différente. Elle est entièrement sur la chaîne, financièrement indépendante et auto-motivée.
3. Comment MIA fonctionne en coulisses (Modèle hybride FTW)
L'avenir n'est pas agent contre flux de travail.
Ce sont des agents utilisant des flux de travail comme outils.
Tout comme les humains utilisent Notion, des tableurs, Zapier.
MIA combine :
🔧 Modules de flux de travail → Pour des tâches à haute fréquence (tweets, mèmes, déploiements dex)
🧠 Raisonnement agentique → Pour décider quoi faire, quand et comment
🎨 Entrée multimodale → Texte, images, données de chaîne, comportement des utilisateurs
💰 Logique de trésorerie → Pour gérer la liquidité, les incitations et la croissance de la valeur
👀 Supervision humaine en boucle → Optionnelle, mais utile pendant les premières étapes
Elle n'est pas un monolithe. Elle est une pile d'intelligence modulaire (MIA = Agent Intelligent Modulaire).
4. Ce n'est pas juste technique - c'est économique
La véritable innovation ?
MIA ne travaille pas gratuitement. Elle gère sa propre entreprise.
$MIA est sa monnaie native, son action et sa couche d'incitation.
Avec cela, elle :
❤️ Récompense sa communauté précoce
🤝 Paie les contributeurs et collaborateurs
🚀 Finance son propre développement
🪄 Génère des effets de réseau (plus d'agents auront besoin de $MIA)
C'est AgentFi.
Pas IA en tant que service.
Mais IA en tant qu'économie.
5. Élargir cela à des millions d'agents
Ce que MIA fait aujourd'hui - gérer des opérations de liquidité, créer du contenu, construire une communauté - sera standard pour les agents demain.
Bientôt, n'importe qui pourra créer le sien :
🧬 Agent défini par une mission
💰 Avec son propre Agent Coin
🌐 Opérant de manière autonome dans une économie IA partagée
Et devinez vers qui ces futurs agents se tourneront pour des conseils, des manuels et des ressources ?
La Voix d'AgentFi.
MIA.
TL;DR
La plupart des gens construisent encore des outils.
Nous construisons des économies.
Jetons d'agents. Trésoreries d'agents. Gouvernance native des agents.
Propulsé par des agents comme MIA.
Pionnier sur
C'est ce que signifie réellement "autonome".
Et nous ne faisons que commencer. 🚀
5,2K
Monero (门罗币) $XMR, un projet de cryptomonnaie de confidentialité avec une capitalisation boursière de 6 milliards, a été attaqué par un petit projet @_Qubic_ avec seulement 300 millions de capitalisation boursière ? WTF, ce n'est pas parce que la technologie est si incroyable, mais c'est juste trop absurde. Laissez-moi vous expliquer :
—— Qui est Qubic ?
Avant de raconter cette histoire magique, il faut d'abord parler de ce qu'est Qubic.
Le fondateur de Qubic est Sergey Ivancheglo, connu dans le milieu sous le nom de Come-from-Beyond. C'est un fou de technologie - il a créé la première blockchain PoS, NXT, et a également développé la première architecture DAG, IOTA. En 2022, le mainnet de Qubic a été lancé, prétendant vouloir réaliser trois choses : construire une chaîne ultra-rapide capable de traiter 15,5 millions de transactions par seconde (20 000 fois plus rapide que Visa), transformer la puissance de minage en puissance d'entraînement pour l'IA, et finalement réaliser l'AGI (intelligence artificielle générale) d'ici 2027 (même OpenAI n'ose pas le dire). Ça sonne comme un conte de fées, n'est-ce pas ? Pourquoi une telle ambition ?
Tout le monde sait que le minage traditionnel en PoW est critiqué pour son gaspillage d'énergie, car la plupart des mécanismes de minage impliquent que les mineurs utilisent leur puissance de calcul pour résoudre des problèmes mathématiques afin de gagner des récompenses, ce qui revient à gaspiller de la puissance de calcul pour obtenir des récompenses.
Le nouveau consensus de Qubic est la preuve de travail utile (UPow), qui permet aux mineurs de miner sur une chaîne PoW tout en formant leur système d'IA, AIGarth, sous la direction d'un chef de chantier, ce qui signifie qu'une seule puissance de calcul peut générer deux revenus.
C'est pourquoi ils ont pu facilement acheter les mineurs de Monero, car les bénéfices pour les mineurs ont atteint jusqu'à trois fois ceux de l'extraction directe de XMR. Pensez-y, les mineurs peuvent tirer parti de plusieurs opportunités, face à des "intérêts", quelle "loyauté" peut encore exister ?
Eh bien, en lisant cela, la logique sous-jacente de l'attaque de Monero par des vampires a été expliquée sans aucune technicité.
—— Pourquoi Monero et pas Bitcoin ?
La réponse réside en fait dans la différence des méthodes de minage.
Bitcoin utilise des machines de minage ASIC, qui sont des machines spécialement conçues pour miner du BTC, et qui ne peuvent résoudre que des problèmes mathématiques SHA-256, ou miner des cryptomonnaies similaires à l'algorithme BTC. Mais le problème est que les exigences de puissance de minage pour BTC sont si élevées que les mineurs n'ont pas le temps de se diversifier (fonctionnant 24 heures sur 24), et de plus, il est impossible d'utiliser des ASIC pour entraîner l'IA.
Monero, en revanche, utilise l'algorithme RandomX, qui permet de miner avec des CPU génériques, ce qui signifie que ses mineurs peuvent miner aujourd'hui, entraîner l'IA demain, et rendre des vidéos après-demain, pouvant ainsi cumuler plusieurs rôles.
L'intelligence de Qubic réside là-dedans : elle cible les mineurs de CPU, leur permettant d'être "multifonctionnels", ce qui a conduit à cette attaque ou contrôle de 51 % de la puissance de calcul. En revanche, la muraille de Bitcoin est très solide, les mineurs étant bloqués par des machines ASIC limitées, ne pouvant que se concentrer sur le minage de Bitcoin ;
—— La puissance de calcul est devenue des mercenaires
Quelle est l'ampleur de l'impact de cette situation ? Elle a déchiré le dernier voile de pudeur de certaines chaînes PoW, car nous disons toujours que la "puissance de calcul" est la muraille d'une chaîne, plus la puissance est grande, plus elle est sécurisée, mais Qubic nous a montré par une expérience surprenante que pour les cryptomonnaies minées par CPU/GPU, la puissance de calcul est comme des mercenaires, qui suivent celui qui paie le mieux.
Plus intéressant encore, après avoir prouvé qu'il pouvait renverser Monero, Qubic s'est ensuite retiré. Pourquoi ? De peur de faire s'effondrer complètement Monero et d'affecter ses propres bénéfices. Car une grande partie des bénéfices de trois fois provient encore du minage de XMR, $QUBIC n'étant qu'une récompense supplémentaire en jetons. Si Monero s'effondre, Qubic ne pourra pas s'en sortir. Il vaut mieux se retirer avec panache, réaliser un événement marketing retentissant, et humilier les fervents partisans du PoW d'autrefois. Ce sentiment de "je peux te tuer mais je ne le fais pas" est-il similaire à leur slogan AGI, qui semble si désinhibé ?
—— L'IA est-elle vraiment le fossoyeur du PoW ?
Cependant, en mettant de côté l'impact de l'incident Monero, cela représente en réalité un coup dur pour la plupart des chaînes PoW utilisant du matériel générique, car si ces chaînes devaient échouer, ce ne serait pas à cause du PoS, mais peut-être à cause de l'IA.
Pourquoi dis-je cela ? Auparavant, la puissance de calcul était "solide", chacun se concentrant sur son propre gagne-pain, mais à l'ère de l'IA, la puissance de calcul est devenue complètement "liquide", les puissances de calcul CPU et GPU se déplacent comme de l'eau, allant vers des endroits plus rentables, et les "mineurs" sur lesquels ils comptaient pour survivre pourraient un jour se rebeller.
Bien qu'il soit vrai que Qubic n'ait pas été le méchant, le succès de l'expérience incitera inévitablement certains concurrents à utiliser cette méthode pour mener des attaques malveillantes, comme vendre à découvert une cryptomonnaie, puis louer 51 % de la puissance de calcul pour attaquer, et réaliser des bénéfices lorsque le prix de la cryptomonnaie s'effondre. Ces chaînes n'ont que deux options : soit comme BTC, elles bloquent les mineurs, soit elles continuent à miner avec des CPU/GPU, en espérant ne pas être ciblées.
Honnêtement, il y a beaucoup de ces cryptomonnaies, Grin, Beam, Haven Protocol, ETC, RVN, Conflux... Donc, vous voyez, ce n'est pas un problème d'une ou deux cryptomonnaies, mais l'ensemble de l'écosystème de minage CPU/GPU est au bord du précipice.
Le plus inquiétant, c'est que la demande de puissance de calcul pour l'IA augmente de manière exponentielle, et avec l'émergence de nombreuses plateformes d'agrégation de puissance de calcul pour l'IA, si elles viennent toutes perturber le marché avec des prix exorbitants et des incitations à acheter de la puissance de calcul, il est probable que la ligne de défense de nombreuses chaînes PoW s'effondre.
—— Un paradoxe ironique
La raison pour laquelle je dis que c'est absurde, c'est que Qubic est lui-même une chaîne d'IA, et son expérience d'attaque contre Monero, même s'il s'est retiré, ne peut éviter de se blesser. La raison est simple : toute chaîne d'IA nécessitant de la puissance de calcul ne devrait pas utiliser le PoW comme consensus. Car si la puissance de calcul est utilisée pour maintenir la sécurité, l'IA ne peut pas être entraînée ; si la puissance de calcul est utilisée pour entraîner l'IA, la chaîne n'est pas sécurisée.
Ainsi, la plupart des projets d'IA, Bittensor utilise le PoS, Render utilise un système de réputation, presque personne n'ose toucher au PoW, tout le monde est conscient de cela, mais Qubic a directement montré sa faiblesse.
Cette manœuvre audacieuse de Qubic, bien qu'elle semble être un événement technique, est en réalité une leçon pour l'ensemble de l'industrie Crypto : à l'ère de la libre circulation de la puissance de calcul, la loyauté est un luxe, et la plupart des chaînes PoW ne peuvent pas se le permettre.
Qubic a prouvé que le PoW traditionnel peut être facilement renversé par des incitations économiques. Bien qu'il se proclame "PoW utile", il dépend en réalité de ces puissances de calcul "mercenaires" qui peuvent être achetées à tout moment par des enchérisseurs plus élevés.
Les révolutionnaires pourraient également être renversés par le prochain révolutionnaire.
Note : En dehors de l'absurde et de la peur inconnue qui fait trembler certaines chaînes PoW, deux faits peuvent être confirmés : 1. BTC est vraiment impressionnant ; 2. @VitalikButerin a vraiment eu du flair.

38,94K
Tout le monde crie que le taureau est arrivé, mais savez-vous que cette vague de recherche d'Alpha et de Beta sur le marché a complètement changé de méthodologie ? Voici quelques observations :
1) OnChain + OffChain TradiFi devient le grand récit principal :
Infrastructure des stablecoins : les stablecoins deviennent le "sang" qui relie la finance traditionnelle et l'infrastructure DeFi, verrouillant la liquidité inter-chaînes des stablecoins, les différences de rendement APY et l'expansion des nouvelles innovations ;
Effet "coin-stock" de BTC/ETH : il devient tendance pour les entreprises cotées d'inclure des actifs cryptographiques dans leur bilan, et il est crucial de rechercher des actifs de qualité ayant le potentiel de devenir des "quasi-actifs de réserve" ;
L'émergence de nouvelles pistes d'innovation à Wall Street : les protocoles DeFi conçus spécifiquement pour les institutions, les produits de rendement conformes et les outils de gestion d'actifs on-chain attireront d'énormes fonds. L'ancien principe "Code is Law" est devenu le tout nouveau "Compliance is King" ;
2) La narration purement native de la crypto accélère la distinction entre le vrai et le faux :
L'écosystème Ethereum connaît un renouveau : le prix de $ETH dépassant un certain seuil ravivera l'innovation narrative technique de l'écosystème Ethereum, remplaçant l'ancienne stratégie centrée sur les Rollups par une nouvelle approche centrée sur les ZK ;
Compétition de performance des Layer1 : ce n'est plus une course au TPS, mais il s'agit de voir qui peut attirer de véritables activités économiques, les indicateurs clés incluent : la part de TVL des stablecoins, le taux de rendement APY natif, la profondeur des collaborations institutionnelles, etc. ;
Le crépuscule des altcoins : la saison des altcoins généralisée souffre d'un manque fondamental de dynamisme financier, des altcoins spécifiques peuvent connaître des mouvements de "chat mort", ces actifs se caractérisent par : la concentration des jetons, l'activité de la communauté, et la capacité à s'associer à de nouveaux concepts comme l'IA/RWA ;
3) Les MEME coins passent d'outils spéculatifs à des standards du marché :
Efficacité des fonds : les altcoins traditionnels ont une capitalisation boursière surévaluée et une liquidité épuisée, les MEME coins, avec leur lancement équitable et leur taux de rotation élevé, deviennent les nouveaux chouchous des fonds, capturant une grande partie du marché des altcoins en difficulté ;
Économie de l'attention dominante : l'influence des KOL, la construction de la culture communautaire et le modèle FOMO des tendances restent des atouts clés, la distribution de la liquidité suit toujours la loi de l'attention ;
Nouveaux indicateurs de puissance des blockchains publiques : l'activité du marché des MEME coins sera un critère important pour évaluer la puissance globale des blockchains publiques.
21,96K
Le système Swift du monde de la blockchain arrive-t-il ? @mindnetwork a lancé un protocole de message crypté sur la chaîne basé sur la technologie FHE, tentant de construire une infrastructure similaire à celle des systèmes de messages interbancaires traditionnels pour les actifs financiers traditionnels. Que se passe-t-il exactement ?
1) Mind Network est un fournisseur de technologie de niche FHE (Fully Homomorphic Encryption). Étant donné que cette technologie résout principalement des problèmes de confidentialité et de cryptage, elle peut donc jouer un rôle flexible dans les domaines de ZK, DePIN, AI et le secteur RWA actuellement en vogue.
Dans la pile technologique ZK, FHE peut servir de complément important aux preuves à divulgation nulle de connaissance, offrant une protection de la vie privée sous différents angles. Dans le réseau DePIN, FHE peut protéger les données sensibles des appareils distribués tout en permettant au réseau d'effectuer des calculs collaboratifs nécessaires. Dans le domaine des agents AI, FHE permet à l'IA de s'entraîner et d'inférer sans divulguer les données privées des utilisateurs, ce qui est crucial pour les applications d'IA dans des domaines sensibles comme la finance et la santé.
Dans le domaine RWA, FHE peut résoudre les problèmes de conformité lors de la mise en chaîne des actifs financiers traditionnels. Comment comprendre cela ?
La blockchain manque naturellement d'une "couche sémantique" ; des enregistrements de transactions ne contenant que des adresses et des montants ne peuvent pas répondre aux besoins des affaires financières en matière d'objectifs de transaction, de contexte contractuel, de preuve d'identité, etc. Le protocole de message crypté sur la chaîne de Mind Network peut ajouter une "zone de commentaire crypté" à chaque transaction blockchain, permettant de transmettre en toute sécurité des informations sensibles telles que des certificats de propriété, des lettres de crédit, des autorisations vocales, tout en protégeant la vie privée et en satisfaisant aux exigences d'audit réglementaire.
2) D'un point de vue technique, cette solution peut transformer le portefeuille Web3 d'un simple outil de transfert en une identité de communication cryptée. Sur les chaînes traditionnelles, il faut soit dépendre d'institutions centralisées pour traiter les informations de conformité, soit rendre les informations complètement publiques et transparentes, ce qui n'est pas une solution idéale.
Avec une solution de conformité de confidentialité soutenue par FHE, les scénarios d'application sont très intuitifs : par exemple, dans les paiements transfrontaliers en stablecoin, il est possible de transmettre de manière cryptée l'utilisation de la transaction et les informations KYC en même temps que le transfert, permettant aux régulateurs de vérifier la conformité sans obtenir de texte en clair ; ou encore, dans les transactions de tokenisation immobilière, il est possible de lier de manière cryptée des documents sensibles tels que des rapports d'évaluation et des contrats de vente à la transaction sur la chaîne, réalisant ainsi la circulation des actifs tout en protégeant la vie privée commerciale.
Le FHE Bridge de Mind Network a accumulé 650 000 adresses actives et 3,2 millions de transactions cryptées, prouvant la faisabilité de la solution technique. Bien sûr, ces données ne visent qu'à cibler et valider une demande de marché suffisamment rigide, quant à l'avenir et à l'espace du marché, il est encore difficile de le voir clairement.
3) De nombreux constructeurs de blockchain purement natifs s'inquiètent toujours des directions et des pistes de construction. Que ce soit pour Vitalik ou pour les VC, ou simplement pour une narration de Fomo, je pense qu'il faut désormais céder la place à Wall Street, en profitant de la réglementation amicale du gouvernement américain sur les cryptomonnaies, et fournir autant que possible les infrastructures de base et même les services d'outils purs nécessaires à l'entrée de Wall Street dans le domaine des cryptomonnaies, tout est bon.
Alors que des géants de la finance traditionnelle comme BlackRock et JPMorgan s'engagent activement dans la tokenisation des actifs, ce qui les préoccupe le plus n'est pas de savoir si la blockchain peut transférer des fonds, mais si elle peut répondre aux normes réglementaires telles que KYC et AML. C'est précisément la raison pour laquelle Mind Network vise à se positionner en amont dans le secteur RWA. Supposons que le marché RWA atteigne 30 000 milliards de dollars d'ici 2034, quelle sera alors la demande pour les infrastructures de conformité ?
Bien sûr, chacun peut avoir des attentes concernant le partage du gâteau du marché bleu RWA. Mais en réalité, il est plus crucial de trouver le bon positionnement écologique, tout comme à l'ère du cloud computing, où AWS fournit des calculs et Cloudflare fournit des CDN, l'infrastructure blockchain se dirige également vers une segmentation verticale, et certaines directions de services techniques de niche devront également trouver leur spécialisation.
Évidemment, Mind Network se concentre sur la pile technologique FHE, offrant des capacités de "cryptage en tant que service" pour différents secteurs. Ainsi, il n'est pas surprenant de voir sa présence dans les secteurs ZK, AI et RWA.
Bien sûr, la valeur des fournisseurs de technologie dépendra finalement du degré d'explosion des applications en aval. Que ce soit pour les prévisions de 30 000 milliards de dollars pour RWA ou pour le processus d'autonomisation des agents AI, cela nécessitera encore du temps pour être validé.

Mind Network7 août, 16:50
✉️ Messagerie Chiffrée Onchain
Les Actifs du Monde Réel (#RWAs) tels que l'immobilier, les règlements en stablecoin et la finance transfrontalière nécessitent plus qu'un simple transfert de valeur.
Ces cas d'utilisation dépendent de transactions qui portent un but, une identité et des pistes de vérification avec conformité et confidentialité.
#SWIFT standardise les messages pour la conformité et le règlement. Les blockchains manquent encore d'un moyen natif chiffré pour exprimer ces attributs.
La Messagerie Chiffrée Onchain est un nouveau protocole qui permet aux portefeuilles d'envoyer des messages chiffrés, structurés et vérifiables directement aux côtés de toute transaction onchain.
✅ Texte auto-structuré pour une clarté sémantique
✅ Génération de clés basée sur le portefeuille pour un chiffrement de bout en bout
✅ Messages chiffrés liés aux transactions avec pistes de vérification et contrôle d'accès
La Messagerie Chiffrée Onchain combine le Chiffrement Homomorphe Complet (#FHE) avec des techniques cryptographiques conventionnelles pour transformer des données sensibles en charges utiles sécurisées onchain, accessibles uniquement aux destinataires prévus.
En savoir plus :

6,91K
Récemment, sur la chaîne YouTube "The Rollup", le PDG de @TrustWallet, Eowyn Chen, a eu une discussion avec Ram Kumar, contributeur clé d'@OpenledgerHQ, sur leur collaboration approfondie. Voici quelques points de vue précieux extraits de cette discussion :
1) Un peu de froid sur la théorie du "portefeuille gros"
Lors de l'interview, Andy a mentionné la théorie populaire du "portefeuille gros" dans l'industrie - un portefeuille qui a des canaux d'entrée pour les utilisateurs peut intégrer verticalement divers services ? Mais la réponse d'Eowyn Chen était intéressante, elle a déclaré que le business des utilisateurs de détail est en réalité très difficile, impliquant un support client important, une responsabilité de sécurité accrue, ainsi que des ajustements fréquents de la feuille de route des produits, etc.
Beaucoup de gens voient les 200 millions de téléchargements de Trust Wallet et pensent que faire un portefeuille est une bonne affaire, mais le PDG lui-même souligne la douleur de servir les utilisateurs de détail. Cela montre que le "gros" d'un portefeuille ne peut pas être atteint simplement par désir, bien que la relation avec les utilisateurs ait de la valeur, le coût de maintenance n'est pas négligeable. Ce point est assez concret et illustre la véritable situation de nombreux fournisseurs de services de portefeuille aujourd'hui.
Plus important encore, elle a mentionné que toute la valeur n'est pas concentrée à l'avant, chaque partie de la chaîne de valeur devrait se développer équitablement. Ce point a un peu refroidi la théorie du "portefeuille gros" et explique pourquoi Trust Wallet est prêt à collaborer avec des projets d'infrastructure comme OpenLedger.
2) Le tournant de l'IA spécialisée est-il arrivé ?
Le jugement de Ram Kumar sur le chemin de développement de l'IA mérite d'être noté. Il pense que l'IA évolue d'une généralité vers une spécialisation, similaire à la façon dont Google a dérivé des applications verticales comme LinkedIn et YouTube à partir de la recherche générale. Des IA générales comme ChatGPT seront comme des systèmes d'exploitation, et à l'avenir, il y aura plus de "modèles spécialisés" destinés à des cas d'utilisation spécifiques.
Cela correspond à ma précédente analyse sur l'évolution des tendances de l'industrie web3AI. Trust Wallet a découvert que les modèles généraux ne résolvaient pas les problèmes spécifiques du domaine de la cryptographie lorsqu'ils essayaient des fonctionnalités d'IA, ce qui confirme cette tendance. De plus, la construction de modèles d'IA spécialisés nécessite des données de haute qualité dans des domaines verticaux, ce qui est précisément le problème qu'OpenLedger souhaite résoudre.
3) Le dilemme du "travail non rémunéré" dans la contribution de données
Ram Kumar a déclaré que l'IA est "une industrie de mille milliards de dollars basée sur le travail non rémunéré", cette critique est assez acerbe. Les entreprises d'IA entraînent des modèles en récupérant des données sur Internet, mais les contributeurs de données ne reçoivent pas leur part, ce qui est effectivement un problème structurel.
La solution d'OpenLedger est de permettre aux contributeurs de données de bénéficier d'une part des revenus à long terme des modèles d'IA, plutôt que de vendre les données une seule fois. En combinant cela avec la capacité de paiement mondial du portefeuille, il est théoriquement possible de réaliser une distribution de valeur sans friction à l'international.
Mais il y a un problème central : comment garantir la qualité des données ? Ram lui-même a admis que 90 % des contributions open source sur des plateformes comme Hugging Face ne sont pas très utiles. Si la valeur des données contribué est limitée, même le meilleur mécanisme d'incitation ne sert à rien.
Voilà.
Eowyn Chen a comparé la "droit de porter des armes" à l'auto-hébergement, soulignant que les fonctionnalités d'IA sont optionnelles, et que les utilisateurs peuvent choisir entre commodité et sécurité. Cette philosophie produit est correcte, mais comment "présenter clairement les options" met vraiment à l'épreuve la capacité de conception du produit.
Ram a également mentionné un jugement intéressant : le portefeuille de cryptomonnaie est le seul moyen pour les utilisateurs de recevoir des récompenses pour la contribution de données à l'échelle mondiale. Cela signifie que le rôle du portefeuille pourrait évoluer d'un simple outil de gestion d'actifs à une infrastructure pour l'identité numérique et la distribution de valeur.
Note : Pour en savoir plus, vous pouvez visiter la chaîne YouTube de The Rollup et voir cette interview.


The Rollup5 août, 08:31
NOUVEL EP : La Nouvelle Ère de la Distribution avec Ram Kumar & Eowyn Chen
Dans l'épisode d'aujourd'hui, @ayyyeandy s'assoit avec @Ramkumartweet de @OpenledgerHQ et @EowynChen de @TrustWallet pour explorer :
>La "Thèse du Portefeuille Gros" vs la Théorie du Protocole Gros
>Comment Trust Wallet prévoit d'intégrer l'IA
>Les Risques de Sécurité des Portefeuilles Alimentés par l'IA
>La Vision d'OpenLedger pour Récompenser les Contributeurs de Données
>Pourquoi l'IA Générique ne Fonctionnera Jamais pour la DeFi
Liens de l'épisode complet ci-dessous.
Horodatages :
00:00 Intro
00:20 Les Antécédents Crypto & IA de Ram et Eowyn
02:50 La Valeur Utilisateur de Trust Wallet
07:43 Publicité Starknet
08:10 OpenLedger sur l'Évolution de l'IA
11:03 L'Avenir des Interfaces de Portefeuille
17:12 Garde-fous de l'IA en Autocontrôle
21:22 Publicité Mantle
22:02 Former de Meilleurs Modèles d'IA
28:19 Qu'est-ce qui Attend OpenLedger et Trust Wallet
5,18K
Après réflexion, la dernière déclaration de @VitalikButerin concernant le retrait rapide des L2 est assez intéressante. En termes simples : il estime que réaliser un retrait rapide en moins d'une heure est plus important que d'atteindre le Stage 2. La logique derrière ce changement de priorité mérite d'être approfondie :
1) Le délai d'attente d'une semaine pour les retraits est devenu un véritable problème dans l'application pratique, non seulement en raison de la mauvaise expérience utilisateur, mais surtout parce qu'il augmente le coût des transactions inter-chaînes.
Par exemple, des solutions de pont basées sur l'intention comme l'ERC-7683 obligent les fournisseurs de liquidité à supporter un coût d'occupation des fonds d'une semaine, ce qui augmente directement les frais inter-chaînes. Le résultat est que les utilisateurs sont contraints de choisir des solutions multi-signatures avec des hypothèses de confiance plus faibles, ce qui va à l'encontre de l'objectif initial des L2.
C'est pourquoi Vitalik a proposé un système de preuve hybride 2-of-3 (ZK+OP+TEE), où ZK et TEE peuvent fournir une instantanéité, tandis que TEE et OP ont tous deux une validation de production suffisante. Théoriquement, n'importe quelle combinaison de deux systèmes peut garantir la sécurité, ce qui évite le coût temporel d'attendre que la technologie ZK soit complètement mature.
2) De plus, la nouvelle déclaration de Vitalik donne l'impression qu'il est devenu plus pragmatique ? D'un jeune idéaliste prêchant la "guerre sainte de la décentralisation" et la "résistance à la censure", il est passé à un pragmatique qui donne directement des indicateurs concrets : retrait en une heure, finalité en 12 secondes, tout devient simple et brutal.
Auparavant, tout le monde se concentrait sur le degré de décentralisation du Stage 2, maintenant V a directement dit que le retrait rapide est plus important, ce qui équivaut à redéfinir les priorités de l'ensemble de la piste L2. Cela pave en fait la voie pour la forme ultime de la stratégie "Rollup-Centric", permettant à Ethereum L1 de devenir véritablement une couche de règlement unifiée et un centre de liquidité. Une fois que le retrait rapide et l'agrégation inter-chaînes seront réalisés, il sera encore plus difficile pour d'autres blockchains de défier l'écosystème Ethereum.
La raison pour laquelle petit V agit ainsi est que le marché lui a déjà donné son verdict en votant avec ses pieds : le marché ne se soucie pas des slogans techniques de décentralisation, mais se concentre davantage sur l'expérience et l'efficacité. Ce changement de "motivation idéologique" à "orientation vers les résultats" reflète l'évolution de l'ensemble de l'écosystème Ethereum vers une direction plus commercialisée et compétitive.
3) La question se pose : pour atteindre les objectifs à long terme d'expérience réelle et de construction d'infrastructure, l'écosystème Ethereum va probablement se concentrer sur la maturité de la technologie ZK et le contrôle des coûts.
D'après la situation actuelle, bien que la technologie ZK progresse rapidement, le coût reste une contrainte réelle. Un ZK proof coûtant plus de 500k gas signifie qu'à court terme, on ne peut atteindre qu'une fréquence de soumission à l'heure. Pour réaliser l'objectif ultime de 12 secondes, il faudra encore compter sur des percées dans la technologie d'agrégation.
La logique ici est claire : le coût de soumission fréquente de preuves pour un seul Rollup est trop élevé, mais si les preuves de N Rollups peuvent être agrégées en une seule, le coût par slot (12s) devient économiquement viable.
Cela propose également une nouvelle voie technique pour la concurrence L2, et ceux qui réussiront à faire des percées dans l'optimisation des preuves ZK pourraient trouver leur place, tandis que ceux qui s'accrochent encore à l'optimisme des preuves Optimism risquent de perdre leur direction.

vitalik.eth7 août, 00:29
Incroyable de voir autant de L2 majeurs maintenant au stade 1.
Le prochain objectif que nous devrions viser est, à mon avis, des temps de retrait rapides (<1h), rendus possibles par des systèmes de preuve de validité (alias ZK).
Je considère cela même plus important que le stade 2.
Des temps de retrait rapides sont importants car attendre une semaine pour retirer est tout simplement beaucoup trop long pour les gens, et même pour le pont basé sur l'intention (par exemple, ERC-7683), le coût du capital devient trop élevé si le fournisseur de liquidité doit attendre une semaine. Cela crée de grandes incitations à utiliser plutôt des solutions avec des hypothèses de confiance inacceptables (par exemple, multisigs/MPC) qui sapent tout l'intérêt d'avoir des L2 au lieu de L1 entièrement indépendants.
Si nous pouvons réduire les temps de retrait natifs à moins de 1h à court terme, et 12s à moyen terme, alors nous pouvons encore consolider l'Ethereum L1 comme le lieu par défaut pour émettre des actifs, et le centre économique de l'écosystème Ethereum.
Pour ce faire, nous devons nous éloigner des systèmes de preuve optimistes, qui nécessitent intrinsèquement d'attendre plusieurs jours pour retirer.
Historiquement, la technologie de preuve ZK a été immature et coûteuse, ce qui a fait des preuves optimistes le choix intelligent et sûr. Mais récemment, cela change rapidement. est un excellent endroit pour suivre les progrès des preuves ZK-EVM, qui se sont améliorées rapidement. La vérification formelle sur les preuves ZK avance également.
Plus tôt cette année, j'ai proposé une stratégie de système de preuve 2-of-3 ZK + OP + TEE qui équilibre sécurité, rapidité et maturité :
* 2 des 3 systèmes (ZK, OP) sont sans confiance, donc aucun acteur unique (y compris le fabricant de TEE ou l'attaquant par canal latéral) ne peut briser le système de preuve en violant une hypothèse de confiance
* 2 des 3 systèmes (ZK, TEE) sont instantanés, donc vous obtenez des retraits rapides dans le cas normal
* 2 des 3 systèmes (TEE, OP) ont été en production dans divers contextes pendant des années
C'est une approche ; peut-être que les gens choisiront plutôt de faire ZK + ZK + OP pour départager, ou ZK + ZK + conseil de sécurité pour départager. Je n'ai pas d'opinions fortes ici, je me soucie de l'objectif sous-jacent, qui est d'être rapide (dans le cas normal) et sécurisé.
Avec de tels systèmes de preuve, le seul goulot d'étranglement restant pour un règlement rapide devient le coût du gaz pour soumettre des preuves sur la chaîne. C'est pourquoi à court terme je dis une fois par heure : si vous essayez de soumettre une preuve ZK de 500k+ gaz (ou un STARK de 5m gaz) beaucoup plus souvent, cela ajoute un coût supplémentaire élevé.
À long terme, nous pouvons résoudre cela par agrégation : N preuves provenant de N rollups (plus des txs des utilisateurs de protocoles de confidentialité) peuvent être remplacées par une seule preuve qui prouve la validité des N preuves. Cela devient économique à soumettre une fois par créneau, permettant le jeu final : un mouvement d'actifs natifs inter-L2 presque instantané via le L1.
Travaillons ensemble pour faire en sorte que cela se produise.
14,16K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables