無需微調LLM即可微調LLM代理! 想像一下,您的AI代理如何在不觸及模型權重的情況下,通過經驗提高性能。 這就像人類如何記住過去的經歷並從中學習。 這正是Memento所做的。 核心概念: Memento不是更新LLM權重,而是通過記憶從經驗中學習。 它將持續學習重新框架為基於記憶的在線強化學習,應用於增強記憶的MDP。 可以把它看作是給您的代理一個筆記本,以記住什麼有效,什麼無效! 它是如何工作的? 系統分為兩個關鍵組件: 1️⃣ 基於案例的推理(CBR): 將複雜任務分解為子任務,並檢索相關的過去經驗。 不需要梯度,只需智能的記憶檢索! 2️⃣ 執行器 使用MCP工具執行每個子任務,並將結果記錄在記憶中以供未來參考。 通過MCP,執行器可以完成大多數現實世界的任務,並可以訪問以下工具: 🔍 網絡研究 📄 文檔處理 🐍 安全的Python執行 📊 數據分析 🎥 媒體處理 我發現這是構建類人代理的一個非常好的路徑。 👉 輪到你了,你有什麼想法? 我在下一條推文中分享了相關鏈接! _____ 如果你覺得這很有啟發性,請與您的網絡分享 ♻️ 想了解更多關於AI和機器學習的見解和教程,請關注我 → @akshay_pachaar!
77.09K