C'est un voyage intéressant de voir la nomenclature conventionnelle de l'apprentissage automatique perdre progressivement tout son sens. Avant, il y avait l'ENTRAÎNEMENT et le TEST, et tout était simple. Maintenant, nous nous entraînons sur l'univers. Et nous testons aussi sur l'univers. Jouons-nous avec nos références ? Extrapolons-nous ou interpolons-nous ? Si un modèle est entraîné sur l'ensemble d'Internet mais génère une seule phrase originale, ne fait-il que combiner des phrases de Reddit ou écrit-il quelque chose de vraiment nouveau ? On dirait que nous manquons même des mots pour décrire les systèmes que nous avons construits.