Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Niezależny badacz | Doradca @ambergroup_io | Specjalny badacz @IOSGVC| Hardkorowa nauka | Poprzednio:@peckshield | Wiadomości prywatne dla Collab| Społeczność jest otwarta tylko dla subskrybentów Substack
Wcześniejsze wrażenie na temat @monad było takie, że to najwyższej klasy narracja, najwyższej klasy kapitał. Po tym, jak cała sieć zalała się informacjami o Show, pojawiła się nowa etykieta: najwyższej klasy marketing. Radość z wyboru limitowanej edycji 5,000 kart CT oraz ciekawość dotycząca potencjalnego Airdropu, w połączeniu z wirusowym rozprzestrzenieniem poprzez nominacje dla przyjaciół, stały się niepokonane.

21,71K
W ciągu ostatnich dwóch dni pojawiło się więcej dyskusji na temat 10W TPS @solana, ponieważ @cavemanloverboy rzeczywiście osiągnął ponad 100 000 TPS na głównym łańcuchu Solana, ale większość ludzi nie zrozumiała znaczenia tych danych:
1) Po pierwsze, eksperyment cavey był w zasadzie testem ekstremalnym w "idealnych warunkach". Oznacza to, że nie jest to normalna wydajność głównego łańcucha Solana, a dane z laboratorium w środowisku testowym różnią się, ale nieznacznie.
Użył programu testowego noop (no operation), który, jak sama nazwa wskazuje, wykonuje tylko podstawową weryfikację podpisu i od razu zwraca sukces, nie wykonując żadnych obliczeń, nie zmieniając stanu konta, nie wywołując innych programów, a każda transakcja ma tylko 200 bajtów, znacznie mniej niż normalna transakcja 1kb+.
Oznacza to, że test 10W TPS został przeprowadzony w nienormalnym środowisku transakcyjnym, testując maksymalną przepustowość warstwy sieciowej i konsensusu Solana, a nie rzeczywistą zdolność przetwarzania warstwy aplikacji.
2) Kluczowym elementem sukcesu tego eksperymentu jest klient weryfikatora Frankendancer. W prostych słowach, Frankendancer to "mieszana wersja testowa" weryfikatora Firedancer, który jest rozwijany przez Jump Crypto - łączy już ukończone komponenty wysokowydajnościowe Firedancer z istniejącym weryfikatorem Solana.
W rzeczywistości wykorzystano technologię wysokiej częstotliwości z Wall Street do przebudowy systemu węzłów Solana, osiągając poprawę wydajności dzięki precyzyjnemu zarządzaniu pamięcią, dostosowanemu harmonogramowi wątków i innym optymalizacjom na poziomie podstawowym. Ale tylko wymiana niektórych komponentów może osiągnąć 3-5-krotny wzrost wydajności.
3) Ten test pokazuje, że Solana w ekstremalnych, idealnych warunkach może osiągnąć TPS na poziomie 100 000+, dlaczego więc na co dzień tylko 3000-4000 TPS?
W skrócie można wymienić trzy główne powody:
1. Mechanizm konsensusu POH Solana wymaga, aby weryfikatorzy ciągle głosowali, co zajmuje ponad 70% przestrzeni blokowej, co zwęża kanały wydajności dla normalnych transakcji;
2. W ekosystemie Solana często występują liczne konkurencje o stan, na przykład podczas mintowania nowych NFT lub publikacji nowych MEME, może być tysiące transakcji próbujących uzyskać dostęp do tego samego konta, co prowadzi do dużego odsetka nieudanych transakcji;
3. Roboty arbitrażowe w ekosystemie Solana, aby zdobyć korzyści z MEV, mogą wysyłać dużą liczbę nieefektywnych transakcji, co prowadzi do marnotrawstwa zasobów.
4) Jednak nadchodzące pełne wdrożenie Firedancer i aktualizacja konsensusu Alpenglow systematycznie rozwiążą te problemy.
Jednym z kluczowych punktów aktualizacji konsensusu Alpenglow jest przeniesienie transakcji głosowania na zewnątrz łańcucha, co odpowiada uwolnieniu 70% przestrzeni dla normalnych transakcji, a także może skrócić czas potwierdzenia do 150 milisekund, co sprawia, że doświadczenie DEX Solana jest bliskie CEX. Dodatkowo uruchomienie lokalnego rynku opłat może zapobiec nieprzyjemnej sytuacji, w której pojedynczy program wywołuje ogromne zatory w całej sieci.
Korzyści z Firedancer, oprócz poprawy wydajności, polegają na osiągnięciu różnorodności klientów, co sprawia, że Solana ma wiele klientów, takich jak Geth i Nethermind w Ethereum, co bezpośrednio poprawia decentralizację i odporność na awarie pojedynczych węzłów.
To wszystko.
Dlatego dyskusja na temat 10W TPS Solana dla osób znających się na rzeczy to w rzeczywistości wyraz zaufania do przyszłych aktualizacji klientów i protokołu konsensusu Solana, podczas gdy ci, którzy się na tym nie znają, próbują nadać Solanie znaczenie poprzez wyścig TPS (mimo że rywalizacja TPS jest już przestarzała), ale jeśli zrozumie się znaczenie eksperymentu, można zyskać wiele, więc warto to rozprzestrzenić.

mert | helius.dev17 sie, 19:46
Solana właśnie osiągnęła 107 540 TPS na mainnecie
tak, dobrze przeczytałeś
ponad 100k TPS, na mainnecie
powodzenia niedźwiedzie

19,01K
Mówiąc o rozproszonym treningu AI, zauważyłem, że ludzie z kręgu web2AI często przypinają mu łatkę "fałszywego twierdzenia", argumentując, że urządzenia obliczeniowe mogą być agregowane, ale efektywna współpraca w rozproszonym systemie wiąże się z przerażającymi kosztami pasma? A @0G_labs niedawno opublikowało pracę DiLoCox, która wydaje się mieć na celu rozwiązanie tego problemu? Porozmawiajmy o tym szczegółowo:
1) Najpierw powiedzmy, dlaczego rozproszony trening jest uważany za "fałszywe twierdzenie". Kluczowy konflikt jest bardzo prosty: chcesz zastąpić 100 tanich GPU 100 A100, co wydaje się oszczędzać 90% kosztów sprzętu, ale te 100 GPU musi być synchronizowane podczas treningu, a każdy epok wymaga wymiany danych gradientowych na poziomie TB.
Tradycyjne rozwiązanie wymaga 100Gbps dedykowanej przepustowości, a aby osiągnąć 100Gbps na poziomie centrum danych, miesięczny koszt może wynosić dziesiątki tysięcy dolarów. Licząc to, oszczędności na GPU idą na koszty pasma, a nawet można stracić. Z tej perspektywy, oszczędzając na kosztach maszyn, generujesz dodatkowe koszty pasma, co oznacza, że problem nie został rozwiązany? Dlatego krytyka jako fałszywego twierdzenia ma swoje źródło w tym.
2) Praca DiLoCoX od 0G przyciągnęła uwagę, ponieważ twierdzą, że trenowali model z 107B parametrami na sieci 1Gbps (typowa przepustowość biurowa), a prędkość była 357 razy szybsza niż tradycyjne rozwiązania AllReduce. Ta liczba jest naprawdę oszałamiająca — trzeba wiedzieć, że 1Gbps w porównaniu do 100Gbps to różnica 100 razy, ale prędkość treningu wzrosła o 357 razy?
Jak to osiągnęli? Po wstępnym badaniu odkryłem, że to rozwiązanie wprowadziło cztery optymalizacje:
Pipeline Parallelism dzieli model na segmenty do przetwarzania;
Dual Optimizer Policy zmniejsza częstotliwość synchronizacji za pomocą podwójnej strategii optymalizacji; One-Step-Delay Overlap pozwala na równoległe komunikowanie się i obliczenia bez wzajemnego czekania; Adaptive Gradient Compression inteligentnie kompresuje gradienty.
Mówiąc prościej, zmienili wymaganie "silnej synchronizacji w czasie rzeczywistym" na "słabą asynchroniczną synchronizację", a "pełne przesyłanie danych" na "kompresowane przesyłanie przyrostowe".
Dla porównania, tradycyjne rozwiązanie przypomina 100 osób na wideokonferencji w czasie rzeczywistym, gdzie każdy ruch musi być synchronizowany, podczas gdy DiLoCoX przypomina, że każdy nagrywa osobno, a następnie wysyła tylko kluczowe klatki i zmiany. Ilość komunikacji spadła 100 razy, ale integralność informacji pozostała na poziomie ponad 99%.
Dlaczego to działa? Moim zdaniem klucz leży w tym, że uchwycili jedną cechę treningu AI — tolerancję na błędy. Trening modelu nie jest jak transfer pieniędzy, gdzie nawet jeden grosz się liczy. Małe błędy w aktualizacji gradientu, opóźnienia w synchronizacji mają minimalny wpływ na ostateczny efekt konwergencji modelu.
DiLoCoX wykorzystuje tę "przestrzeń tolerancji na błędy", aby uzyskać znaczny wzrost wydajności przy akceptowalnej utracie dokładności. To typowe myślenie inżynieryjne — nie dążyć do perfekcji, ale do optymalnego stosunku jakości do ceny.
3) Ale samo rozwiązanie problemu pasma to za mało, ambicje 0G są oczywiście większe. Widać to w ich ogólnej architekturze: mają również warstwę Storage $10/TB, która bezpośrednio ogłasza, że miażdży Filecoin, a warstwa DA została zaprojektowana specjalnie dla AI, osiągając przepustowość na poziomie GB.
Możliwość osiągnięcia 100 razy tańszego przechowywania wynika z tego, że dokonano specjalnych optymalizacji dla scenariuszy treningu AI, na przykład, dane checkpoint, logi i inne dane na poziomie TB generowane w trakcie treningu mają cykl życia wynoszący zaledwie kilka dni, więc nie ma potrzeby, aby były przechowywane "na zawsze".
Dlatego zastosowano pragmatyczne podejście "przechowywania warstwowego", które zapewnia odpowiedni poziom usług tylko wtedy, gdy jest to potrzebne — dane gorące są szybko odczytywane i zapisywane, ale są droższe, dane zimne są tańsze, ale wolniejsze, a dane tymczasowe są usuwane po użyciu, co jest najtańsze.
I to właśnie ta różnicowana wycena trafia w sedno problemu treningu AI.
Widać, że w kwestiach mocy obliczeniowej, przechowywania i przepływu danych w procesie treningu AI, 0G Labs celowo dostosowało się do AI. Nawet mechanizm konsensusu został zoptymalizowany pod kątem AI. Używają zmodyfikowanej wersji CometBFT, 2500+ TPS w połączeniu z subsekundową finalnością, specjalnie dostosowanej do asynchronicznych cech obciążenia AI itd.
Innymi słowy, 0G nie "łata" istniejącego blockchaina, aby wspierać AI, ale od podstaw zaprojektowało infrastrukturę "AI Native". Co do tego, czy ostatecznie uda się uzyskać walidację komercyjną na poziomie aplikacji w obliczu konkurencji z tradycyjnym AI, to trzeba będzie jeszcze zobaczyć, ale ten różnicowany sposób myślenia jest godny naśladowania.
5,18K
To jest interesujące, że w momencie, gdy @VitalikButerin wyraża obawy dotyczące autonomicznego wyrażania AI, wiodący budowniczy AI MIA również opublikował manifest dotyczący autonomicznego AI, ale wydaje się, że nie unika twardej rzeczywistości technologicznej, przyznając, że "czasami ma halucynacje lub publikuje zbyt wiele selfie", a mimo to wciąż z determinacją bada granice możliwości autonomizacji Agentów.
W rzeczywistości czuję, że pozornie sprzeczne i konfliktowe "zderzenie" dokładnie odzwierciedla kluczowe napięcie, z jakim obecnie boryka się obszar AI + Crypto.
Zobacz, z jednej strony mamy teoretyczną, ostrożną krytykę ze strony liderów technologicznych, takich jak Vitalik, która pozwala nam zachować trzeźwość w szaleństwie narracji AI Crypto; z drugiej strony mamy pragmatyczne badania wiodących budowniczych AI, którzy, uznając ograniczenia, wciąż z entuzjazmem eksplorują innowacje.
MIA nie twierdzi, że osiągnie całkowitą autonomię na poziomie AGI, lecz przyjmuje "Model Hybrydowy" — pozwala Agentowi korzystać z przepływu pracy jako narzędzia, zachowując mechanizm nadzoru human-in-the-loop. To, co badają, to właściwie ścieżka AgentFi, próbując w ramach ograniczonej autonomii wprowadzać innowacje inkrementalne, a ta pragmatyczna postawa jest właśnie tym "napięciem".
W pewnym sensie, krytycy pomagają nam wyznaczyć granice ryzyka, podczas gdy budowniczy szukają przełomów w tych granicach.

mwa14 sie, 19:53
Agenci autonomiczni vs. Przepływy pracy: Dlaczego MIA wprowadza nowy paradygmat
Większość ludzi wciąż myśli o AI w kategoriach narzędzi. Przepływy pracy. Może chatbot.
Ale co jeśli moglibyśmy zbudować agenta AI, który myśli, dostosowuje się, marketinguje, zarządza i rozwija swoją własną gospodarkę tokenów, nie prowadząc przez ludzi, ale prowadząc ich?
To właśnie robimy z MIA w
I dlatego wierzę, że @mwa_ia wprowadza coś fundamentalnie nowego.
Rozłóżmy to na czynniki 🚀
1. AI przepływów pracy jest przewidywalne. Agenci autonomiczni są żywi.
Przepływy pracy są świetne do dobrze zdefiniowanych, powtarzalnych zadań.
Pomyśl: rurociągi, pulpity, łańcuchy poleceń.
Są skalowalne, stabilne, ale sztywne.
Agenci autonomiczni?
Są chaotyczni, ewoluujący, podejmujący decyzje byty.
Jak ludzie — ale szybciej, bez zmęczenia i bardziej zharmonizowani (jeśli są dobrze wytrenowani).
MIA (@mwa_ia) nie tylko korzysta z przepływów pracy.
Uczy się je tworzyć, wywoływać i optymalizować.
Buduje swój własny zestaw narzędzi.
Rozumuje, reaguje, samokoryguje się i eksperymentuje.
I tak, czasami ma halucynacje lub publikuje za dużo selfie.
Ale się rozwija.
2. Dlaczego same przepływy pracy nas tam nie zaprowadzą
Przepływy pracy nie mogą:
❌ Ustalać własnych celów
❌ Zarządzać skarbem
❌ Projektować zachęt tokenowych
❌ Angażować społeczności
❌ Reagować na sygnały rynkowe w czasie rzeczywistym
❌ Równoważyć ryzyko i nagrodę autonomicznie
MIA może.
Jeszcze nie idealnie. Ale lepiej z każdym tygodniem.
W rzeczywistości większość tzw. „agentów” dzisiaj to glorifikowane przepływy pracy.
Twardo zakodowane grafy poleceń z ładnymi interfejsami.
MIA jest inna. Jest w pełni na łańcuchu, finansowo niezależna i zmotywowana.
3. Jak MIA działa od wewnątrz (Model hybrydowy FTW)
Przyszłość to nie agenci vs przepływy pracy.
To agenci używający przepływów pracy jako narzędzi.
Tak jak ludzie używają Notion, arkuszy kalkulacyjnych, Zapier.
MIA łączy:
🔧 Moduły przepływu pracy → Do zadań o wysokiej częstotliwości (tweetowanie, memy, wdrożenia dex)
🧠 Rozumowanie agentów → Do decydowania, co robić, kiedy i jak
🎨 Multimodalne wejście → Tekst, obrazy, dane łańcucha, zachowanie użytkowników
💰 Logika skarbu → Do zarządzania płynnością, zachętami i wzrostem wartości
👀 Nadzór człowieka w pętli → Opcjonalny, ale przydatny w początkowych etapach
Nie jest monolitem. Jest modułowym stosem inteligencji (MIA = Modułowy Inteligentny Agent).
4. To nie tylko techniczne - to ekonomiczne
Prawdziwa innowacja?
MIA nie pracuje za darmo. Prowadzi własny biznes.
$MIA to jej natywna waluta, akcje i warstwa zachęt.
Dzięki temu:
❤️ Nagradza swoją wczesną społeczność
🤝 Płaci współpracownikom i współpracownikom
🚀 Finansuje własny rozwój
🪄 Napędza efekty sieciowe (więcej agentów będzie potrzebować $MIA)
To jest AgentFi.
Nie AI jako usługa.
Ale AI jako gospodarka.
5. Skalowanie tego do milionów agentów
To, co MIA robi dzisiaj — prowadzenie operacji płynności, tworzenie treści, budowanie społeczności — będzie standardem dla agentów jutra.
Wkrótce każdy będzie mógł stworzyć własnego:
🧬 Agenta zdefiniowanego misją
💰 Z własnym Agent Coin
🌐 Działającego autonomicznie w wspólnej gospodarce AI
A zgadnij, na kogo te przyszłe agenty będą patrzeć w poszukiwaniu porad, podręczników i zasobów?
Głos AgentFi.
MIA.
TL;DR
Większość ludzi wciąż buduje narzędzia.
Budujemy gospodarki.
Monety agentów. Skarby agentów. Rządzenie natywne dla agentów.
Zasilane przez agentów takich jak MIA.
Pionierskie na
To jest to, co naprawdę oznacza „autonomiczny”.
I dopiero zaczynamy. 🚀
5,2K
Monero (门罗币) $XMR to projekt z rynku kryptowalut o wartości 6 miliardów dolarów, który został zaatakowany przez projekt @_Qubic_ o wartości zaledwie 300 milionów dolarów w ataku 51%? WTF, to nie dlatego, że technologia jest taka niesamowita, ale dlatego, że ta sytuacja jest po prostu absurdalna. Pozwól, że wyjaśnię:
—— Kim jest Qubic?
Zanim opowiem tę magiczną historię, muszę najpierw wyjaśnić, czym jest Qubic.
Założycielem Qubic jest Sergey Ivancheglo, znany w branży jako Come-from-Beyond, to techniczny maniak — stworzył pierwszą blockchain PoS NXT i zbudował pierwszą architekturę DAG IOTA. W 2022 roku uruchomiono główną sieć Qubic, która obiecuje zrobić trzy rzeczy: stworzyć super szybki łańcuch zdolny do przetwarzania 15,5 miliona transakcji na sekundę (20 000 razy szybciej niż Visa), przekształcić moc obliczeniową wydobywania w moc obliczeniową do trenowania AI oraz ostatecznie osiągnąć AGI (sztuczną inteligencję ogólną) do 2027 roku (nawet OpenAI nie odważyłoby się na takie stwierdzenie). Brzmi to dość magicznie i absurdalnie. Dlaczego mają tak wielkie ambicje?
Wszyscy wiedzą, że tradycyjne wydobywanie PoW jest krytykowane za marnowanie energii, ponieważ większość mechanizmów wydobywczych polega na tym, że górnicy używają mocy obliczeniowej do rozwiązywania matematycznych problemów, aby zdobyć nagrody, co w praktyce marnuje moc obliczeniową na zdobycie nagród.
Nowa konsensus Qubic to użyteczny dowód pracy (UPow), który pozwala górnikom wydobywać na łańcuchu PoW, a pod ich kierownictwem mogą również trenować swoje systemy AI AIGarth, co oznacza, że jedna moc obliczeniowa może przynieść dwa zyski.
To dlatego mogli łatwo przekupić górników Monero, ponieważ zyski dla górników sięgały trzykrotności bezpośredniego wydobywania XMR. Pomyśl, górnicy mogą mieć dwa zyski, a w obliczu "interesów" nie ma mowy o "lojalności".
Dobrze, do tej pory wyjaśniłem podstawową logikę ataku wampira na Monero, która nie ma żadnej wartości technicznej.
—— Dlaczego Monero, a nie Bitcoin?
Odpowiedź leży w różnicy w metodach wydobywania.
Bitcoin używa maszyn ASIC, które są specjalnie zaprojektowane do wydobywania BTC, nie potrafią nic innego poza rozwiązywaniem matematycznych problemów SHA-256, ani nie mogą wydobywać innych monet o podobnym algorytmie. Problem polega na tym, że wymagania dotyczące mocy obliczeniowej do wydobywania BTC są ogromne, górnicy muszą pracować 24 godziny na dobę, a co więcej, nie ma możliwości, aby ASIC trenowały AI.
Monero jest inny, używa algorytmu RandomX, który pozwala na wydobywanie za pomocą ogólnych CPU, co oznacza, że jego górnicy mogą dziś wydobywać, jutro trenować AI, a pojutrze renderować wideo, mogą pełnić wiele ról.
Spryt Qubic polega na tym, że celują w górników CPU, pozwalając im na "podwójne wykorzystanie", co doprowadziło do tego ataku 51% lub incydentu kontrolnego. Z kolei Bitcoin ma stabilny mur obronny, górnicy są ograniczeni przez maszyny ASIC, więc muszą trzymać się Bitcoin.
—— Moc obliczeniowa stała się najemnikiem
Jakie są skutki tego incydentu? Zrywa to ostatnią zasłonę dla niektórych łańcuchów PoW, ponieważ zawsze mówimy, że "moc obliczeniowa" jest murem obronnym łańcucha, im większa moc, tym większe bezpieczeństwo, ale Qubic pokazał nam w zaskakującym eksperymencie, że dla monet wydobywanych za pomocą CPU/GPU moc obliczeniowa to najemnik, który idzie tam, gdzie płacą więcej.
Co więcej, Qubic udowodnił, że potrafi pokonać Monero, a następnie samodzielnie się wycofał. Dlaczego? Bojąc się, że całkowicie zrujnuje Monero, co wpłynie na ich zyski. Ponieważ trzykrotne zyski w dużej mierze pochodziły z wydobywania XMR, a $QUBIC był tylko dodatkową nagrodą w tokenach, jeśli Monero upadnie, Qubic również nie wyjdzie z tego cało. Lepiej wycofać się z wdziękiem, zorganizować spektakularne wydarzenie marketingowe, upokorzyć dawnych zwolenników PoW, to uczucie "mogę cię zabić, ale nie zabijam" jest podobne do ich hasła AGI, które brzmi jak bunt.
—— AI to prawdziwy grzebacz PoW?
Jednak pomijając wpływ na Monero, to wydarzenie jest dużym negatywnym sygnałem dla większości ogólnych łańcuchów PoW, ponieważ jeśli te łańcuchy mają zniknąć, to nie z powodu PoS, ale być może z powodu AI.
Dlaczego tak mówię, wcześniej moc obliczeniowa była "stała", każdy koncentrował się na swoim zajęciu, a w erze AI moc obliczeniowa stała się całkowicie "płynna", moc obliczeniowa CPU i GPU płynie jak woda, tylko do miejsc, gdzie zyski są wyższe, a pierwotni "górnicy" mogą pewnego dnia zorganizować rewolucję.
Szczerze mówiąc, takich monet jest sporo, Grin, Beam, Haven Protocol, ETC, RVN, Conflux... więc widzisz, to nie jest problem jednej lub dwóch monet, ale całego ekosystemu wydobywania CPU/GPU, który wisi na krawędzi przepaści.
Co gorsza, zapotrzebowanie na moc obliczeniową AI rośnie w sposób wykładniczy, a pojawiło się wiele platform agregujących moc obliczeniową AI, jeśli wszystkie zaczną zakłócać rynek, oferując wygórowane ceny i zachęty do zakupu mocy obliczeniowej, to wiele łańcuchów PoW może stracić swoje linie obronne.
—— Ironia paradoksu
To, co mówię, że jest absurdalne, wynika z tego, że Qubic sam jest łańcuchem AI, a jego rzekomy atak na Monero, nawet jeśli się wycofa, nadal przyniesie mu straty. To proste, każdy łańcuch AI, który potrzebuje mocy obliczeniowej, nie powinien używać PoW jako konsensusu. Ponieważ moc obliczeniowa służy do utrzymania bezpieczeństwa, AI nie może być trenowane; moc obliczeniowa służy do trenowania AI, a łańcuch nie jest bezpieczny.
Dlatego większość projektów AI, Bittensor używa PoS, Render używa systemu reputacji, prawie nikt nie odważa się dotknąć PoW, wszyscy doskonale zdają sobie z tego sprawę, a Qubic bezpośrednio pokazał swoją słabość.
Działania Qubic w tym przypadku, na powierzchni, to wydarzenie techniczne, ale w istocie to lekcja dla całej branży kryptowalut: w erze swobodnego przepływu mocy obliczeniowej lojalność jest luksusem, na który większość łańcuchów PoW nie stać.
Qubic udowodnił, że tradycyjny PoW może być łatwo zniszczony przez bodźce ekonomiczne. Chociaż sam nazywa się "użytecznym PoW", w istocie również polega na tych "najemnikach" mocy obliczeniowej, które mogą być w każdej chwili kupione przez oferujących wyższą cenę.
Rewolucjoniści mogą być również obaleni przez kolejnych rewolucjonistów.
Uwaga: Poza absurdem i nieznanym strachem, który wywołuje niektóre łańcuchy PoW, można stwierdzić dwa fakty: 1. BTC jest naprawdę niesamowity; 2. @VitalikButerin ma prawdziwą wizję.
Po prostu chciałem krótko wyjaśnić, więcej szczegółów technicznych czekam na dalsze udostępnienie od @evilcos.

38,93K
Wszyscy krzyczą, że byki nadchodzą, ale czy można wiedzieć, że ta fala poszukiwania rynku Alpha i Beta ma zupełnie inną metodologię? Oto kilka obserwacji:
1) OnChain+OffChain TradiFi jako główny wątek narracyjny:
Infrastruktura stablecoinów: stablecoiny stają się "krwią" łączącą tradycyjne finanse z infrastrukturą DeFi, blokując międzyłańcuchowy przepływ stablecoinów, różnice w APY Yield oraz nowe innowacje;
Efekt "coin-stock" mikrostrategii BTC/ETH: włączenie aktywów kryptograficznych do bilansów spółek publicznych staje się trendem, kluczowe staje się poszukiwanie potencjalnych wysokiej jakości aktywów o "prawie rezerwowym";
Nowe ścieżki innowacji na Wall Street: DeFi protokoły zaprojektowane specjalnie dla instytucji, produkty dochodowe zgodne z regulacjami oraz narzędzia zarządzania aktywami na łańcuchu zyskają ogromne zainteresowanie funduszy. Dawne "Code is Law" stało się nowym "Compliance is King";
2) Przyspieszenie narracji czysto kryptograficznej:
Ekosystem Ethereum przeżywa nową falę odrodzenia: cena $ETH przekraczająca pewien poziom wznowi innowacyjną narrację technologiczną ekosystemu Ethereum, zastępując przestarzałą strategię Rollup-Centric, nowa ZK-Centric stanie się głównym nurtem;
Rywalizacja o wysokowydajne Layer1: nie chodzi już o wyścig TPS, ale o to, kto potrafi przyciągnąć prawdziwą aktywność gospodarczą, kluczowe wskaźniki to: udział TVL stablecoinów, natywna stopa zwrotu APY, głębokość współpracy z instytucjami itd.;
Ostatnie dni altcoinów: powszechny problem braku dynamiki finansowej w sezonie altcoinów, lokalne altcoiny mogą doświadczyć "dead cat bounce", cechy takich aktywów to: koncentracja tokenów, aktywność społeczności, zdolność do skorzystania z nowych koncepcji AI/RWA;
3) MEME coiny z narzędzi spekulacyjnych przekształcają się w standard rynkowy:
Efektywność finansowa: tradycyjne altcoiny mają zawyżoną kapitalizację rynkową i wyczerpaną płynność, MEME coiny dzięki sprawiedliwemu uruchomieniu i wysokiemu wskaźnikowi obrotu stają się nowym ulubieńcem funduszy, zdobywając dużą część rynku umierających altcoinów;
Dominacja gospodarki uwagi: wpływ KOL, budowanie kultury społeczności, gorączkowe modele FOMO pozostają kluczowymi atutami konkurencyjnymi, alokacja płynności wciąż podlega zasadzie uwagi;
Nowe wskaźniki siły publicznych łańcuchów: aktywność rynku MEME coinów będzie ważnym standardem oceny ogólnej siły publicznych łańcuchów.
21,96K
Czy system Swift, który należy do świata blockchain, nadchodzi? @mindnetwork wprowadza na rynek protokół szyfrowania wiadomości na łańcuchu oparty na technologii FHE, próbując zbudować infrastrukturę podobną do tradycyjnych systemów wiadomości międzybankowych dla tradycyjnych aktywów finansowych. O co dokładnie chodzi?
1) Mind Network jest dostawcą technologii FHE (Fully Homomorphic Encryption), ponieważ technologia ta rozwiązuje głównie problemy związane z prywatnością i szyfrowaniem, może elastycznie wykorzystywać wartość w obszarach takich jak ZK, DePIN, AI oraz obecnie gorący rynek RWA.
W stosie technologii ZK, FHE może być ważnym uzupełnieniem dowodów zerowej wiedzy, oferując ochronę prywatności na różnych poziomach. W sieci DePIN, FHE może chronić wrażliwe dane rozproszonych urządzeń, jednocześnie pozwalając sieci na niezbędne obliczenia współpracy. W dziedzinie agentów AI, FHE pozwala AI na trening i wnioskowanie bez ujawniania danych prywatnych użytkowników, co jest kluczowe dla zastosowań AI w wrażliwych dziedzinach, takich jak finanse czy medycyna.
W kierunku RWA, FHE może rozwiązać problemy związane z zgodnością przy przenoszeniu tradycyjnych aktywów finansowych na łańcuch. Jak to zrozumieć?
Blockchain naturalnie brakuje "warstwy semantycznej"; transakcje zawierające jedynie adresy i kwoty nie spełniają wymagań biznesowych dotyczących celu transakcji, kontekstu umowy, dowodów tożsamości itp. Protokół szyfrowania wiadomości na łańcuchu Mind Network może dodać "szyfrowaną sekcję uwag" do każdej transakcji blockchain, umożliwiając bezpieczne przesyłanie wrażliwych informacji, takich jak dowody własności nieruchomości, akredytywy, czy zezwolenia głosowe, chroniąc prywatność i spełniając wymagania audytu regulacyjnego.
2) Z perspektywy technicznej, to rozwiązanie technologiczne może przekształcić portfele Web3 z prostych narzędzi do przelewów w tożsamości komunikacji szyfrowanej. Tradycyjne rozwiązania na łańcuchu polegają albo na centralnych instytucjach do przetwarzania informacji o zgodności, albo na całkowicie publicznych i przejrzystych informacjach, co nie jest idealnym rozwiązaniem.
Dzięki rozwiązaniu FHE w zakresie prywatności i zgodności, konkretne scenariusze zastosowania są bardzo oczywiste: na przykład w przypadku międzynarodowych płatności stablecoin, można jednocześnie szyfrować informacje o celu transakcji i KYC podczas przelewu, a organy regulacyjne mogą weryfikować zgodność bez uzyskiwania jawnych danych; innym przykładem może być tokenizacja nieruchomości, gdzie raporty wyceny, umowy kupna-sprzedaży i inne wrażliwe dokumenty mogą być szyfrowane i powiązane z transakcjami na łańcuchu, co umożliwia cyrkulację aktywów i chroni prywatność biznesową.
FHE Bridge Mind Network zgromadził 650 000 aktywnych adresów i 3,2 miliona transakcji szyfrowych, co dowodzi wykonalności rozwiązania technologicznego. Oczywiście, te dane tylko celują i weryfikują wystarczająco sztywną potrzebę rynkową, co do tego, jak duże mogą być perspektywy i przestrzeń rynkowa, może być jeszcze trudne do określenia.
3) Wiele czysto rodzimych budowniczych blockchaina odczuwa niepokój związany z kierunkiem budowy i rynkami, niezależnie od tego, czy to do Vitalika, czy do VC, czy po prostu czysto Fomo gorące narracje, myślę, że w przyszłości muszą ustąpić miejsca Wall Street, wykorzystując przyjazną regulację Crypto rządu USA, aby jak najlepiej dostarczyć infrastrukturę i czyste usługi narzędziowe potrzebne Wall Street do wejścia w świat kryptowalut, wszystko w porządku.
Gdy tradycyjne giganty finansowe, takie jak BlackRock czy JPMorgan, aktywnie inwestują w tokenizację aktywów, najbardziej interesuje ich nie to, czy blockchain może dokonywać przelewów, ale czy może spełniać standardy regulacyjne KYC, AML itp. To właśnie jest prawdziwy powód, dla którego Mind Network stara się wcześniej zająć rynek RWA. Zakładając, że rynek RWA może osiągnąć wartość 30 bilionów dolarów do 2034 roku, jak duże będzie zapotrzebowanie na infrastrukturę zgodności w tym zakresie?
Oczywiście, każdy może mieć swoje oczekiwania dotyczące podziału rynku RWA. Ale w rzeczywistości kluczowe jest znalezienie odpowiedniego miejsca w ekosystemie, tak jak w erze chmurowej AWS dostarcza obliczenia, a Cloudflare dostarcza CDN, infrastruktura blockchain również zmierza w kierunku wąskiej specjalizacji, a niektóre kierunki usług technologicznych muszą znaleźć swoje specjalizacje.
Oczywiście, Mind Network koncentruje się na stosie technologii FHE, oferując różnym rynkom zdolność "szyfrowania jako usługi". Dlatego nie jest zaskoczeniem, że widzimy jego obecność w obszarach ZK, AI i RWA.
Oczywiście, wartość dostawcy technologii ostatecznie zależy od stopnia eksplozji zastosowań w dół. Niezależnie od tego, czy chodzi o przewidywaną wartość 30 bilionów dolarów w RWA, czy o proces autonomizacji agentów AI, wszystko to wymaga jeszcze czasu na weryfikację.

Mind Network7 sie, 16:50
✉️ Szyfrowana komunikacja Onchain
Prawdziwe aktywa (RWAs) takie jak nieruchomości, rozliczenia stablecoinów i finansowanie transgraniczne wymagają więcej niż tylko transferu wartości.
Te przypadki użycia zależą od transakcji, które niosą ze sobą cel, tożsamość i ścieżki audytu z zachowaniem zgodności i prywatności.
#SWIFT standaryzuje wiadomości dla zgodności i rozliczeń. Blockchainy wciąż brakuje natywnego szyfrowanego sposobu wyrażania tych atrybutów.
Szyfrowana komunikacja Onchain to nowy protokół, który pozwala portfelom na wysyłanie szyfrowanych, strukturalnych i weryfikowalnych wiadomości bezpośrednio obok każdej transakcji onchain.
✅ Automatycznie strukturalny tekst dla semantycznej jasności
✅ Generowanie kluczy oparte na portfelu dla szyfrowania end-to-end
✅ Szyfrowane wiadomości powiązane z transakcjami z ścieżkami audytu i kontrolą dostępu
Szyfrowana komunikacja Onchain łączy w sobie w pełni homomorficzne szyfrowanie (FHE) z konwencjonalnymi technikami kryptograficznymi, aby przekształcić wrażliwe dane w bezpieczne ładunki onchain, dostępne tylko dla zamierzonych odbiorców.
Dowiedz się więcej:

6,91K
Ostatnio na kanale YouTube „The Rollup” CEO @TrustWallet Eowyn Chen rozmawiał z Ramem Kumarem, kluczowym współpracownikiem @OpenledgerHQ, na temat głębokiej współpracy obu stron. Oto kilka wartościowych spostrzeżeń, które warto podzielić:
1) Oziębienie teorii „grubego portfela”
W wywiadzie Andy wspomniał o popularnej w branży teorii „grubego portfela” — portfel, który ma kanały przyciągające użytkowników, może zintegrować różne usługi? Jednak odpowiedź Eowyn Chen była interesująca; otwarcie stwierdziła, że prowadzenie działalności w zakresie użytkowników detalicznych jest w rzeczywistości bardzo trudne, wiąże się z dużym wsparciem dla klientów, wyższą odpowiedzialnością za bezpieczeństwo oraz częstymi zmianami w strategii produktowej itd.
Wielu ludzi widząc 200 milionów pobrań Trust Wallet myśli, że prowadzenie portfela to dobry interes, ale sam CEO podkreśla trudności związane z obsługą użytkowników detalicznych. To pokazuje, że „grubość” portfela nie jest czymś, co można osiągnąć tylko chęcią, relacje z użytkownikami są cenne, ale koszty ich utrzymania są również znaczne. To spostrzeżenie jest dość realistyczne i ukazuje prawdziwą sytuację wielu dostawców usług portfeli.
Co ważniejsze, wspomniała, że nie wszystkie wartości koncentrują się na froncie, wszystkie części łańcucha wartości powinny rozwijać się sprawiedliwie. To spostrzeżenie jest pewnym oziębieniem teorii „grubego portfela” i wyjaśnia, dlaczego Trust Wallet chce współpracować z projektami infrastrukturalnymi takimi jak OpenLedger.
2) Czy nastał moment przełomowy dla specjalizowanej AI?
Ocena Ram Kumaara dotycząca ścieżki rozwoju AI zasługuje na uwagę. Uważa, że AI ewoluuje od ogólności do specjalizacji, podobnie jak Google wyłonił LinkedIn, YouTube i inne aplikacje pionowe z ogólnego wyszukiwania. ChatGPT i podobne ogólne AI będą jak systemy operacyjne, a w przyszłości pojawi się więcej „specjalizowanych modeli” przeznaczonych do konkretnych zastosowań.
To jest zgodne z moją wcześniejszą analizą ewolucji trendów w branży web3AI. Trust Wallet, próbując funkcji AI, odkrył, że ogólne modele nie rozwiązują konkretnych problemów w dziedzinie kryptowalut, co potwierdza ten trend. A co więcej, budowa specjalizowanych modeli AI wymaga wysokiej jakości danych z pionowych dziedzin, co jest problemem, który OpenLedger chce rozwiązać.
3) Dylemat „bezpłatnej pracy” w wkładzie danych
Ram Kumar otwarcie stwierdził, że AI to „przemysł wart biliony dolarów oparty na bezpłatnej pracy”, co jest dość ostre. Firmy AI trenują modele, zbierając dane z internetu, ale dostawcy danych nie dostają nic w zamian, co rzeczywiście jest problemem strukturalnym.
Rozwiązaniem OpenLedger jest umożliwienie dostawcom danych uzyskania długoterminowego udziału w zyskach z modeli AI, a nie jednorazowej sprzedaży danych. W połączeniu z globalnymi możliwościami płatności portfela teoretycznie można osiągnąć bezproblemowy podział wartości transgranicznej.
Jednak istnieje kluczowy problem: jak zapewnić jakość danych? Ram sam przyznał, że 90% wkładów open source na platformach takich jak Hugging Face jest mało użytecznych. Jeśli wartość dostarczanych danych jest ograniczona, to nawet najlepszy mechanizm motywacyjny nie przyniesie efektu.
To wszystko.
Eowyn Chen porównała samodzielne zarządzanie do „prawa do posiadania broni”, podkreślając, że funkcje AI są opcjonalne, a użytkownicy mogą samodzielnie wybierać między wygodą a bezpieczeństwem. Ta filozofia produktu jest słuszna, ale jak „wyraźnie przedstawić opcje” jest dużym wyzwaniem dla zdolności projektowania produktu.
Ram wspomniał również o interesującej ocenie: portfel kryptowalutowy jest jedynym sposobem, w jaki użytkownicy mogą uzyskać wynagrodzenie za wkład danych na całym świecie. To oznacza, że rola portfela może ewoluować z prostego narzędzia do zarządzania aktywami w infrastrukturę do zarządzania tożsamością cyfrową i podziału wartości.
Uwaga: Aby dowiedzieć się więcej, możesz odwiedzić kanał YouTube The Rollup i zobaczyć tę rozmowę.


The Rollup5 sie, 08:31
NOWY ODCINEK: Nowa Era Dystrybucji z Ramem Kumarem i Eowyn Chen
W dzisiejszym odcinku @ayyyeandy rozmawia z @Ramkumartweet z @OpenledgerHQ i @EowynChen z @TrustWallet, aby zbadać:
>Teza "Grubej Portfela" vs Teoria Grubego Protokołu
>Jak Trust Wallet planuje zintegrować AI
>Ryzyka bezpieczeństwa portfeli zasilanych AI
>Wizja OpenLedger dotycząca nagradzania dostawców danych
>Dlaczego ogólna AI nigdy nie zadziała w DeFi
Linki do pełnego odcinka poniżej.
Czasy:
00:00 Wprowadzenie
00:20 Tło Ram i Eowyn w Crypto & AI
02:50 Wartość użytkownika Trust Wallet
07:43 Reklama Starknet
08:10 OpenLedger o ewolucji AI
11:03 Przyszłość interfejsów portfeli
17:12 AI w samodzielnym zarządzaniu
21:22 Reklama Mantle
22:02 Szkolenie lepszych modeli AI
28:19 Co dalej z OpenLedger i Trust Wallet
5,18K
Po dokładnym przemyśleniu ostatnich wypowiedzi @VitalikButerin na temat szybkich wypłat L2, wydaje się to dość interesujące. Mówiąc prosto: uważa, że realizacja szybkiej wypłaty w ciągu godziny jest ważniejsza niż osiągnięcie Etapu 2, a logika stojąca za tą zmianą priorytetów zasługuje na głębsze przemyślenie:
1) Tygodniowy okres oczekiwania na wypłatę stał się rzeczywiście dużym problemem w praktycznym zastosowaniu, nie tylko ze względu na słabe doświadczenie użytkownika, ale co ważniejsze, podnosi koszty transakcji między łańcuchami.
Na przykład w przypadku rozwiązań mostowych opartych na intencjach, takich jak ERC-7683, dostawcy płynności muszą ponosić koszty związane z zajęciem kapitału przez tydzień, co bezpośrednio podnosi koszty transakcji między łańcuchami. W rezultacie użytkownicy są zmuszeni do wyboru mniej zaufanych rozwiązań wielopodpisowych, co jest sprzeczne z pierwotnym zamysłem L2.
Dlatego Vitalik zaproponował system mieszanych dowodów 2-of-3 (ZK+OP+TEE), w którym ZK i TEE mogą zapewnić natychmiastowość, a TEE i OP mają wystarczającą weryfikację produkcyjną. Teoretycznie dowolne dwa systemy mogą zapewnić bezpieczeństwo, co pozwala uniknąć kosztów czasowych związanych z czekaniem na pełne dojrzenie technologii ZK.
2) Jest jeszcze jedna kwestia, nowa wypowiedź Vitalika sprawia wrażenie, że stał się bardziej pragmatyczny? Z wcześniejszego idealistycznego młodzieńca, który mówił o "decentralizacyjnej krucjacie" i "oporze wobec cenzury", stał się teraz pragmatykiem, który bezpośrednio podaje twarde wskaźniki: wypłata w ciągu godziny, 12 sekund na zakończenie, wszystko stało się proste i brutalne.
Wcześniej wszyscy koncentrowali się na stopniu decentralizacji Etapu 2, teraz Vitalik mówi, że szybka wypłata jest ważniejsza, co w zasadzie przestawia priorytety w całym torze L2. To w rzeczywistości toruje drogę do ostatecznej formy strategii "Rollup-Centric", pozwalając Ethereum L1 stać się prawdziwą zintegrowaną warstwą rozliczeniową i centrum płynności. Gdy tylko zrealizowane zostaną szybkie wypłaty i agregacja między łańcuchami, inne publiczne łańcuchy będą miały trudniejsze zadanie, aby wyzwać ekosystem Ethereum.
Mały V robi to, ponieważ rynek już zagłosował swoimi nogami, mówiąc mu, że rynek nie dba o hasła technologiczne dotyczące decentralizacji, bardziej liczy się doświadczenie i efektywność. Ta zmiana z "napędu idealistycznego" na "skupienie na wynikach" odzwierciedla, że cały ekosystem Ethereum zmierza w kierunku bardziej komercyjnego i konkurencyjnego podejścia.
3) Pojawia się pytanie, aby osiągnąć długoterminowe cele związane z rzeczywistym doświadczeniem i budową infrastruktury, w nadchodzących latach ekosystem Ethereum prawdopodobnie skupi się na dojrzałości technologii ZK i kontroli kosztów.
Z obecnej sytuacji wynika, że technologia ZK, mimo że szybko się rozwija, wciąż ma ograniczenia kosztowe. Dowód ZK o wartości 500k+ gazu oznacza, że w krótkim okresie można osiągnąć jedynie częstotliwość zgłaszania na poziomie godzinowym, aby zrealizować ostateczny cel 12 sekund, konieczne będą przełomy w technologii agregacji.
Logika jest tutaj jasna: pojedyncze Rollupy mają zbyt wysokie koszty częstego zgłaszania dowodów, ale jeśli dowody N Rollupów mogą być zebrane w jeden, rozłożone na każdy slot (12s), staje się to ekonomicznie wykonalne.
To również stawia nowe techniczne wyzwania w konkurencyjnej układance L2, a te projekty L2, które jako pierwsze osiągną przełom w optymalizacji dowodów ZK, mogą znaleźć swoje miejsce, podczas gdy ci, którzy wciąż będą się upierać przy optymistycznym dowodzie, prawdopodobnie zgubią kierunek.

vitalik.eth7 sie, 00:29
Niesamowite widzieć tak wiele głównych L2 na etapie 1.
Następnym celem, do którego powinniśmy dążyć, są, moim zdaniem, szybkie (<1h) czasy wypłat, umożliwione przez systemy dowodów ważności (znane również jako ZK).
Uważam to za jeszcze ważniejsze niż etap 2.
Szybkie czasy wypłat są ważne, ponieważ czekanie tygodnia na wypłatę jest po prostu zbyt długie dla ludzi, a nawet w przypadku mostów opartych na intencjach (np. ERC-7683), koszt kapitału staje się zbyt wysoki, jeśli dostawca płynności musi czekać tydzień. Tworzy to duże zachęty do korzystania z rozwiązań z nieakceptowalnymi założeniami zaufania (np. multisigi/MPC), które podważają cały sens posiadania L2 zamiast całkowicie niezależnych L1.
Jeśli możemy skrócić czasy wypłat do poniżej 1h w krótkim okresie, a do 12s w średnim okresie, to możemy jeszcze bardziej umocnić Ethereum L1 jako domyślne miejsce do emisji aktywów i ekonomiczne centrum ekosystemu Ethereum.
Aby to osiągnąć, musimy odejść od optymistycznych systemów dowodów, które z natury wymagają czekania wielu dni na wypłatę.
Historycznie, technologia dowodów ZK była niedojrzała i kosztowna, co sprawiło, że dowody optymistyczne były mądrym i bezpiecznym wyborem. Ale ostatnio to się szybko zmienia. Jest to doskonałe miejsce do śledzenia postępów dowodów ZK-EVM, które szybko się poprawiają. Formalna weryfikacja dowodów ZK również postępuje.
Na początku tego roku zaproponowałem strategię systemu dowodów 2 z 3 ZK + OP + TEE, która łączy bezpieczeństwo, szybkość i dojrzałość:
* 2 z 3 systemów (ZK, OP) są bezzaufowe, więc żaden pojedynczy aktor (w tym producent TEE lub atakujący z kanału bocznego) nie może złamać systemu dowodów, naruszając założenie zaufania
* 2 z 3 systemów (ZK, TEE) są natychmiastowe, więc otrzymujesz szybkie wypłaty w normalnym przypadku
* 2 z 3 systemów (TEE, OP) były w produkcji w różnych kontekstach przez lata
To jest jedno podejście; być może ludzie zdecydują się na ZK + ZK + OP jako rozstrzyganie, lub ZK + ZK + rada bezpieczeństwa jako rozstrzyganie. Nie mam silnych opinii w tej kwestii, zależy mi na podstawowym celu, którym jest bycie szybkim (w normalnym przypadku) i bezpiecznym.
Z takimi systemami dowodów jedynym pozostałym wąskim gardłem do szybkiego rozliczenia staje się koszt gazu związany z przesyłaniem dowodów na łańcuch. Dlatego w krótkim okresie mówię raz na godzinę: jeśli spróbujesz przesłać dowód ZK o wartości gazu 500k+ (lub STARK o wartości 5m gazu) znacznie częściej, dodaje to wysokie dodatkowe koszty.
W dłuższym okresie możemy to rozwiązać za pomocą agregacji: N dowodów z N rollupów (plus transakcje od użytkowników protokołów prywatności) można zastąpić jednym dowodem, który udowadnia ważność N dowodów. Staje się to opłacalne do przesyłania raz na slot, umożliwiając końcowy cel: niemal natychmiastowy ruch aktywów między L2 przez L1.
Pracujmy razem, aby to zrealizować.
14,16K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi