Тонке налаштування LLM Agents без Fine-tuning LLM! Уявіть, що ви покращуєте продуктивність свого AI-агента на власному досвіді, навіть не торкаючись ваги моделі. Це схоже на те, як люди пам'ятають минулі епізоди і вчаться на них. Саме цим і займається Memento. Основна концепція: Замість того, щоб оновлювати вагові коефіцієнти LLM, Memento вчиться на досвіді за допомогою пам'яті. Він переосмислює безперервне навчання як онлайн-навчання з підкріпленням на основі пам'яті замість MDP, доповненого пам'яттю. Думайте про це як про те, щоб дати своєму агенту блокнот, щоб запам'ятати, що спрацювало, а що ні! Як це працює? Система розпадається на два ключові компоненти: 1️⃣ Аргументація на основі випадків (CBR) на роботі: Розкладає складні завдання на підзавдання та отримує відповідний минулий досвід. Градієнти не потрібні, лише розумне вилучення пам'яті! 2️⃣ Виконавець Виконує кожне підзавдання за допомогою інструментів MCP і записує результати в пам'ять для подальшого використання. За допомогою MCP виконавець може виконувати більшість реальних завдань і має доступ до наступних інструментів: 🔍 Веб-дослідження 📄 Робота з документами 🐍 Безпечне виконання Python 📊 Аналіз даних 🎥 Обробка носіїв Я вважаю, що це дійсно хороший шлях до створення агентів, схожих на людей. 👉 Які у вас думки? Я поділився відповідними посиланнями в наступному твіті! _____ Поділіться цим зі своєю мережею, якщо ви вважаєте цю інформацію корисною ♻️ Знайдіть мене → @akshay_pachaar для отримання додаткової інформації та навчальних посібників зі штучного інтелекту та машинного навчання!
77,09K