Vi varnade dig – AI-hallucinationer hamnar i lokala myndigheter och rättsfall och sprider fel:
"... advokater använde AI-system utan tillräcklig tillsyn, vilket resulterade i 615 exempel hittills, inklusive fabricerad eller felaktig rättspraxis eller felaktigt språk citerat från rättspraxis."
AI gör falska citat mer än hälften av gångerna.
"En studie från Deakin University av litteraturöversikter inom mental hälsa visade att ChatGPT (GPT-4o) fabricerade ungefär en av fem akademiska citeringar, där mer än hälften av alla citeringar (56 %) antingen var falska eller innehöll fel."
Hur man känner igen AI-slingor i artiklar och meddelanden:
Självklart finns det bindestreck, men om folk tar bort dem finns det ändå det tydliga tecknet på denna standardformulering av chatbots:
"det här är inte bara X, det är absolut Y"