Finjustering av LLM-agenter utan finjustering av LLM! Föreställ dig att du kan förbättra din AI-agents prestanda utifrån erfarenhet utan att någonsin röra modellvikterna. Det är precis som hur människor kommer ihåg tidigare episoder och lär sig av dem. Det är precis vad Memento gör. Kärnkonceptet: Istället för att uppdatera LLM-vikter lär sig Memento av erfarenheter med hjälp av minnet. Den omformulerar kontinuerlig inlärning som minnesbaserad online-förstärkningsinlärning över en minnesförstärkt MDP. Tänk på det som att ge din agent en anteckningsbok för att komma ihåg vad som fungerade och vad som inte fungerade! Hur fungerar det? Systemet delas upp i två huvudkomponenter: 1️⃣ Case-Based Reasoning (CBR) i arbete: Delar upp komplexa uppgifter i deluppgifter och hämtar relevanta tidigare erfarenheter. Inga gradienter behövs, bara smart minneshämtning! 2️⃣ Testamentsexekutor Utför varje deluppgift med hjälp av MCP-verktyg och registrerar resultat i minnet för framtida referens. Genom MCP kan utföraren utföra de flesta verkliga uppgifter och har tillgång till följande verktyg: 🔍 Forskning på webben 📄 Hantering av dokument 🐍 Säker Python-körning 📊 Analys av data 🎥 Bearbetning av media Jag tyckte att det här var en riktigt bra väg mot att bygga människoliknande agenter. 👉 Över till dig, vad är dina tankar? Jag har delat de relevanta länkarna i nästa tweet! _____ Dela detta med ditt nätverk om du tyckte att detta var insiktsfullt ♻️ Hitta mig → @akshay_pachaar för fler insikter och handledningar om AI och maskininlärning!
91,95K