A injeção de prompt com AI pode resultar em exfiltração de dados Se os modelos tiverem um uso amplo de ferramentas e puderem chamar qualquer recurso externo, os atacantes conseguem acessar quase tudo no contexto da janela.