无需微调LLM即可微调LLM代理! 想象一下,您的AI代理如何在不触及模型权重的情况下,通过经验提高性能。 这就像人类如何记住过去的经历并从中学习。 这正是Memento所做的。 核心概念: Memento不是更新LLM权重,而是通过记忆从经验中学习。 它将持续学习重新框架为基于记忆的在线强化学习,应用于增强记忆的MDP。 可以把它看作是给您的代理一个笔记本,以记住什么有效,什么无效! 它是如何工作的? 系统分为两个关键组件: 1️⃣ 基于案例的推理(CBR): 将复杂任务分解为子任务,并检索相关的过去经验。 不需要梯度,只需智能的记忆检索! 2️⃣ 执行器 使用MCP工具执行每个子任务,并将结果记录在记忆中以供将来参考。 通过MCP,执行器可以完成大多数现实世界的任务,并可以访问以下工具: 🔍 网络研究 📄 文档处理 🐍 安全的Python执行 📊 数据分析 🎥 媒体处理 我发现这是构建类人代理的一个非常好的路径。 👉 轮到你了,你有什么想法? 我在下一条推文中分享了相关链接! _____ 如果你觉得这很有启发性,请与您的网络分享 ♻️ 想了解更多关于AI和机器学习的见解和教程,请关注我 → @akshay_pachaar!
77.09K