Menambahkan beberapa konteks di sini, peningkatan daya komputasi juga sama dengan konsumsi energi yang lebih besar, yang tidak berkelanjutan. EpochAI memproyeksikan bahwa: ➤ Komputasi pelatihan diskalakan pada 4-5x per tahun. ➤ Permintaan daya diperkirakan akan meningkat 2,2x menjadi 2,9x per tahun. Pada tahun 2030, setiap pelatihan dapat membutuhkan 4-16 gigawatt (GW), cukup untuk memberi daya pada jutaan rumah AS. Beberapa solusi tersedia: ➤ Tingkatkan efisiensi energi perangkat keras ➤ Kembangkan metode untuk mengurangi durasi pelatihan ➤ Manfaatkan pelatihan terdistribusi di beberapa GPU di lokasi geografis yang berbeda. Di antaranya, opsi ketiga, yang dipelopori oleh proyek-proyek seperti @ionet, @render, dan @AethirCloud, tampaknya merupakan solusi yang paling layak dan segera. h / t @EpochAIResearch