Quando memorizzi le tue conoscenze e abilità come curve parametriche (come fanno tutti i modelli di deep learning), l'unico modo in cui puoi generalizzare è tramite l'interpolazione sulla curva. Il problema è che i punti interpolati *correlano* con la verità ma non hanno alcun legame *causale* con la verità. Ecco perché si verificano le allucinazioni. La soluzione è iniziare a sfruttare grafi simbolici causali come tuo substrato di rappresentazione (ad esempio, programmi informatici del tipo che scriviamo come ingegneri del software). Lo stack software scritto dall'uomo, con il suo estremamente alto grado di affidabilità nonostante la sua enorme complessità, è prova dell'esistenza di una propagazione esatta della verità.
102,04K