La mémoire est le fossé.
Il y a 4 mois, j'ai présenté le "Bartender Stack" à @UCBerkeley pour résoudre ce problème. Ça vieillit bien, alors que des centaines de millions de personnes connectent leurs chatbots à leurs données privées. Jetez un œil.
nous construisons une dépendance à l'IA.
demandez à n'importe quel ami non technique pourquoi chatgpt, ils diront "il me connaît" creusez un peu plus et vous apprendrez sur la mémoire/le contexte
la mémoire et les intégrations d'outils ont été leur atout. c'est dangereux car les incitations sont mal alignées, ils veulent vendre des publicités, pas être amis. Nous avons besoin d'une alternative à ce verrouillage fournisseur
- les fournisseurs d'inférence devraient être remplaçables
- votre mémoire/contexte devrait vous appartenir, idéalement privé et local. utilisé selon votre volonté de manière sélective
- vos réponses ne devraient pas être des données d'entraînement ou même stockées sur des serveurs d'inférence LLM. Les LLM devraient être oublieux et sans état
parfaitement résumé dans une diapositive par @marco_derossi
.@rickydata42 est (également) l'un des principaux contributeurs au SDK Agent0 🙏
Je suis très curieux de voir cet Agent de Données 8004 utilisant @CambrianNetwork
Y a-t-il un enregistrement 📺 ?
La découverte est un élément clé pour rendre les appels d'agents efficaces.
Chez Agentic Zero, nous avons vu le Data Agent ERC-8004 de @CambrianNetwork.
@rickydata42 a montré comment il localise le graphe de connaissances lié à une requête et associe les demandes des utilisateurs aux bonnes compétences et capacités des agents.