L'interpretabilità del modello non è una questione di quale metodo di ML stai usando (quale substrato del modello, ad esempio NNs rispetto a modelli grafici rispetto a codice simbolico). Qualsiasi substrato può essere interpretabile quando il modello è abbastanza piccolo. È puramente una questione di dimensione/complessità del modello. Il comportamento di una base di codice complessa o di un modello grafico complesso non è interpretabile nonostante il fatto che tu possa leggere localmente qualsiasi parte di ciò che fa. È forse *debuggabile* in casi specifici con grande sforzo -- ma lo stesso sarebbe vero anche per le NNs. A mio avviso, l'affermazione "dobbiamo usare metodi interpretabili" è un non-starter, significa che ti piacerebbe limitarti a modelli semplicistici.
61,9K