Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Finjustering av LLM-agenter utan finjustering av LLM!
Föreställ dig att du kan förbättra din AI-agents prestanda utifrån erfarenhet utan att någonsin röra modellvikterna.
Det är precis som hur människor kommer ihåg tidigare episoder och lär sig av dem.
Det är precis vad Memento gör.
Kärnkonceptet:
Istället för att uppdatera LLM-vikter lär sig Memento av erfarenheter med hjälp av minnet.
Den omformulerar kontinuerlig inlärning som minnesbaserad online-förstärkningsinlärning över en minnesförstärkt MDP.
Tänk på det som att ge din agent en anteckningsbok för att komma ihåg vad som fungerade och vad som inte fungerade!
Hur fungerar det?
Systemet delas upp i två huvudkomponenter:
1️⃣ Case-Based Reasoning (CBR) i arbete:
Delar upp komplexa uppgifter i deluppgifter och hämtar relevanta tidigare erfarenheter.
Inga gradienter behövs, bara smart minneshämtning!
2️⃣ Testamentsexekutor
Utför varje deluppgift med hjälp av MCP-verktyg och registrerar resultat i minnet för framtida referens.
Genom MCP kan utföraren utföra de flesta verkliga uppgifter och har tillgång till följande verktyg:
🔍 Forskning på webben
📄 Hantering av dokument
🐍 Säker Python-körning
📊 Analys av data
🎥 Bearbetning av media
Jag tyckte att det här var en riktigt bra väg mot att bygga människoliknande agenter.
👉 Över till dig, vad är dina tankar?
Jag har delat de relevanta länkarna i nästa tweet!
_____
Dela detta med ditt nätverk om du tyckte att detta var insiktsfullt ♻️
Hitta mig → @akshay_pachaar för fler insikter och handledningar om AI och maskininlärning!

91,95K
Topp
Rankning
Favoriter