Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
L'interpretabilità del modello non è una questione di quale metodo di ML stai usando (quale substrato del modello, ad esempio NNs rispetto a modelli grafici rispetto a codice simbolico). Qualsiasi substrato può essere interpretabile quando il modello è abbastanza piccolo. È puramente una questione di dimensione/complessità del modello.
Il comportamento di una base di codice complessa o di un modello grafico complesso non è interpretabile nonostante il fatto che tu possa leggere localmente qualsiasi parte di ciò che fa. È forse *debuggabile* in casi specifici con grande sforzo -- ma lo stesso sarebbe vero anche per le NNs.
A mio avviso, l'affermazione "dobbiamo usare metodi interpretabili" è un non-starter, significa che ti piacerebbe limitarti a modelli semplicistici.
61,9K
Principali
Ranking
Preferiti