GPT-5 był reklamowany jako redukujący halucynacje i wygląda na to, że to działa. 99,5 -> 99,9 to 80% mniej błędów. Nie wiem, dlaczego ludzie nie robią z tego większej sprawy. Halucynacje są jednym z największych problemów LLM i niektórzy uważali, że są nierozwiązywalne.