Am mai spus asta, dar este optimist să avem multe date de antrenament. Asta implică faptul că LLM-urile probabil vor fi mult mai bune la securizarea / auditarea codului EVM. Poți vedea acest fenomen deja la modele — sunt uimitoare la dezvoltare web și scripturi Python, mult mai slabe la cod de nivel jos, unde sunt mult mai puține exemple pe Github. De asemenea, înseamnă că, în timp, auditorii umani se vor concentra tot mai mult pe limbaje/aplicații de date de antrenament rare. (De asemenea, aventurile noi pe care agentul le-a găsit erau ambele insecte de rotund. Poate asta, te rog, să însemne în sfârșit sfârșitul bug-urilor de rotunjire în cripto?)