Nous vous avons prévenus - les hallucinations de l'IA pénètrent dans les gouvernements locaux et les affaires juridiques, répandant des erreurs :
"... les avocats ont utilisé des systèmes d'IA sans supervision suffisante, ce qui a entraîné 615 exemples à ce jour, y compris des jurisprudences fabriquées ou mal représentées ou des citations incorrectes de jurisprudence."
L'IA crée des citations fausses plus de la moitié du temps.
"Une étude de l'Université Deakin sur les revues de littérature en santé mentale a révélé que ChatGPT (GPT-4o) a fabriqué environ une citation académique sur cinq, avec plus de la moitié de toutes les citations (56 %) étant soit fausses, soit contenant des erreurs."
Comment repérer le langage flou des IA dans les articles et les messages :
Bien sûr, il y a les tirets em, mais si les gens les suppriment, il y a toujours le signe révélateur de cette formulation standard de chatbot :
"ce n'est pas juste X, c'est absolument Y"