Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

nader dabit
🇵🇸 // Devrel + DX @eigencloud @eigen_da @eigen_labs // AI & Onchain // Vorige @aave @awscloud @celestia // 🫂 @developer_dao
Gisteren opgevangen in Buenos Aires @jacobc_eth @CoinFello
"het werk dat wordt gedaan met EigenAI over determinisme is een van de belangrijkste werkzaamheden die momenteel in de ruimte worden uitgevoerd"
Spannend wanneer nieuwe toepassingen mogelijk worden gemaakt door nieuwe primitieve en het zien van oprichters die deze kansen benutten.

10,73K
Een andere geweldige inzicht van @karpathy, die het belang van AI-verifieerbaarheid benadrukt
"Ik denk dat de sterkste analogie die van AI als een nieuw computerparadigma is (Software 2.0)
... Software 1.0 automatiseert gemakkelijk wat je kunt specificeren. Software 2.0 automatiseert gemakkelijk wat je kunt verifiëren.
... In dit nieuwe programmeerparadigma is de nieuwe meest voorspellende functie om naar te kijken verifieerbaarheid.
Als een taak/werk verifieerbaar is, dan kan het direct of via versterkend leren geoptimaliseerd worden, en kan een neuraal netwerk worden getraind om extreem goed te presteren."
Verifieerbaarheid in deze context draait meer om training/optimalisatie - de evaluatie van of de output van een AI correct is + het mogelijk maken van betere automatisering vanwege dat.
Verifieerbaarheid in AI + crypto is meer gericht op de uitvoeringscontext.
- Kunnen we verifiëren dat de invoer, het model en de output correct zijn en niet zijn gemanipuleerd (verifieerbare inferentie)
- Kan iemand ter wereld deze inferentie opnieuw uitvoeren en vandaag, morgen en over 1 jaar hetzelfde resultaat krijgen (deterministische inferentie)
- Kunnen we verifiëren dat alleen de agent toegang heeft tot, en de mogelijkheid heeft om transacties uit te voeren vanuit, zijn portemonnee (verifieerbare runtime)
- Kunnen we verifiëren dat de reputatie van deze agent (ERC-8004)

Andrej Karpathy17 nov, 01:56
Een interessante recente conversatie delen over de impact van AI op de economie.
AI is vergeleken met verschillende historische precedenten: elektriciteit, industriële revolutie, enzovoort. Ik denk dat de sterkste analogie die van AI als een nieuw computerparadigma (Software 2.0) is, omdat beide fundamenteel gaan over de automatisering van digitale informatieverwerking.
Als je de impact van computing op de arbeidsmarkt in de jaren '80 zou moeten voorspellen, zou de meest voorspellende eigenschap van een taak/baan waar je naar zou kijken, in hoeverre het algoritme ervan vastligt zijn, d.w.z. ben je gewoon mechanisch informatie aan het transformeren volgens vaste, gemakkelijk te specificeren regels (bijv. typen, boekhouden, menselijke rekenmachines, enz.)? Toen was dit de klasse van programma's die de computercapaciteit van die tijd ons toestond om te schrijven (met de hand, handmatig).
Met AI kunnen we nu nieuwe programma's schrijven die we voorheen nooit met de hand hadden kunnen schrijven. We doen dit door doelstellingen te specificeren (bijv. classificatie-nauwkeurigheid, beloningsfuncties), en we doorzoeken de programmaruimte via gradient descent om neurale netwerken te vinden die goed presteren tegen dat doel. Dit is mijn Software 2.0 blogpost van een tijdje geleden. In dit nieuwe programmeerparadigma is de nieuwe meest voorspellende eigenschap om naar te kijken verifieerbaarheid. Als een taak/baan verifieerbaar is, dan kan deze direct of via reinforcement learning geoptimaliseerd worden, en kan een neuraal netwerk worden getraind om extreem goed te presteren. Het gaat erom in hoeverre een AI iets kan "oefenen". De omgeving moet resetbaar zijn (je kunt een nieuwe poging starten), efficiënt (er kunnen veel pogingen worden gedaan), en beloonbaar (er is een geautomatiseerd proces om elke specifieke poging die is gedaan te belonen).
Hoe meer een taak/baan verifieerbaar is, hoe meer deze geschikt is voor automatisering in het nieuwe programmeerparadigma. Als het niet verifieerbaar is, moet het afhangen van de neurale net magie van generalisatie, duimen maar, of via zwakkere middelen zoals imitatie. Dit is wat de "gehaakte" grens van vooruitgang in LLM's aandrijft. Taken die verifieerbaar zijn, vorderen snel, mogelijk zelfs voorbij de capaciteiten van top-experts (bijv. wiskunde, code, hoeveelheid tijd besteed aan het kijken naar video's, alles wat lijkt op puzzels met juiste antwoorden), terwijl veel andere taken in vergelijking achterblijven (creatief, strategisch, taken die echte wereldkennis, staat, context en gezond verstand combineren).
Software 1.0 automatiseert gemakkelijk wat je kunt specificeren.
Software 2.0 automatiseert gemakkelijk wat je kunt verifiëren.
8,77K
Boven
Positie
Favorieten


