Si nous attendons une sécurité à 100 % avant d'approuver de nouvelles technologies (par exemple, des thérapeutes IA), nous finissons par priver d'énormes avantages les personnes mêmes que ces technologies sont censées aider. Le critère n'est pas zéro erreur ; c'est un système qui est plus sûr que de simplement avoir un humain dans la boucle.