muitos dos principais pesquisadores estão começando a argumentar que a escalabilidade sozinha não nos levará à AGI, e que eventualmente precisaremos de uma grande quebra de pesquisa semelhante à criação de transformadores. Recentemente, tive a chance de conversar com John Hennessy (o presidente da Alphabet), e perguntei a ele se a tendência atual de escalabilidade é apenas mais uma fase temporária ou um paradigma em si. Ele disse que há duas questões-chave: se a escalabilidade continuará a proporcionar avanços na capacidade de construir sistemas de IA para fazer raciocínio complexo. Até agora, não vimos uma interrupção nisso, então a resposta não é claramente sim, mas provavelmente. A segunda questão é se a escalabilidade continuará a ser econômica, e sua resposta a isso foi não. Uma métrica útil a se observar é o desempenho por watt, e essa curva está começando a se achatar. Acredito que está se tornando cada vez mais claro que, mesmo que a escalabilidade continue a melhorar as capacidades do modelo, o verdadeiro gargalo pode não ser os retornos decrescentes, mas o custo de energia necessário para alcançar sistemas de nível AGI e ASI. O platô não está aparecendo no desempenho bruto, está aparecendo no desempenho por watt. O problema da ASI, em última análise, se resume a um problema de energia. Kardashev é.