A memória é o fosso.
Há 4 meses, apresentei o "Bartender Stack" para @UCBerkeley resolver isso. Envelhecendo bem, já que centenas de milhões de pessoas estão conectando seus chatbots aos seus dados privados. Dá uma olhada.
estamos construindo uma dependência da IA.
Pergunte a qualquer amigo que não seja técnico por que o ChatGPT, eles dizem "ele me conhece", se você investigar mais a fundo você vai aprender sobre memória/contexto
As integrações de memória e ferramentas têm sido o fosso deles. Isso é perigoso porque os incentivos estão desalinhados, eles querem vender anúncios, não ser amigos. Precisamos de uma alternativa para esse bloqueio de fornecedores
- Provedores de inferência devem ser substituíveis
- sua memória/contexto deve ser de sua responsabilidade, idealmente privada e local. Usado de acordo com sua vontade seletivamente
- suas respostas não devem ser dados de treinamento nem mesmo armazenadas em servidores de inferência LLM. LLMs devem ser esquecidos e sem estado
Slide by @marco_derossi perfeitamente resumido
.@rickydata42 é (também) um dos principais colaboradores do SDK 🙏 Agent0
Estou super curioso para ver esse 8004 Data Agent usando @CambrianNetwork
Existe alguma 📺 gravação?
A descoberta é uma parte fundamental para tornar as chamadas de agentes eficientes.
No Agentic Zero, vimos o Agente de Dados ERC-8004 da @CambrianNetwork
@rickydata42 mostrou como localiza o grafo de conhecimento relacionado a uma consulta e mapeia as solicitações dos usuários para as habilidades e capacidades corretas do agente.