För några år sedan användes den "stokastiska papegojan"-ramen för att avfärda potentialen för modeller att ha mer sofistikerade förmågor, vilket kraftigt underskattade språkets flexibilitet. Sedan dess känns det som att det har varit en överkorrigering/fenomen där folk läser in lite för mycket i texten, ignorerar mekanismerna bakom nästa token-förutsägelser och slutar med att göra falska ytliga jämförelser med mänskligt beteende. Det är lätt att gå vilse i simuleringar!