Ciò di cui ha parlato @dwarkesh_sp è ciò che nessuno nella bolla dell'hype dell'AGI vuole affrontare. Se un modello ha bisogno di un sandbox programmato per "imparare" Excel, non si tratta di "intelligenza che emerge"... è marionettismo. O questi sistemi si auto-dirigono o la formazione a metà rimane cosplay per l'intelligenza.