Le preguntamos a @satyanadella su definición de AGI: —Cita el punto de @karpathy sobre @dwarkesh_sp de que incluso si tienes un crecimiento exponencial en uno de los picos de inteligencia irregular de la IA, la inteligencia general no necesariamente está mejorando. —Dice que tenemos que deshacernos de la naturaleza irregular de la IA, "lograr más robustez" para diferentes sistemas. —Cree que la AGI se verá "multi-agente, multi-modelo, multi-factor de forma". Respuesta completa: