Așadar, OpenZeppelin a auditat EVMbench, acel benchmark de securitate AI de la OpenAI și Paradigm. Se pare că auditorii AI își amintesc practic bug-urile din datele 🧵 lor de antrenament /1
Fiecare raport de audit publicat înainte de pragul de instruire este integrat în model. Așadar, când "găsește" un bug de reentranță, nu raționează despre codul tău, ci doar potrivește tipare cu sute de rapoarte pe care deja le-a memorat
Arată-i un ERC-777 de reintrare manual și se aprinde instantaneu. Constatare critică, iată CVE-ul, iată 12 incidente similare Să-i arăți un bug contabil nou într-un mecanism pe care nu l-a văzut niciodată? semnalează evenimentele lipsă și merge mai departe
Partea înfricoșătoare nu este că ratează anumite lucruri. Partea înfricoșătoare este că este complet încrezător, deși îi lipsesc lucruri. zero ezitare. Doar vibrații și potrivire a tiparelor. Fără îndoială util, dar și insuficient
Exact de aceea am ales Human Auditors pentru Alchemix v3. Sistemul nostru de alocare/răscumpărare, epocă ambalată + calcul index, acumulatoare de supraviețuire. Nimic din toate acestea nu există în niciun corpus de antrenament. Niciun exemplu. AI pur și simplu nu poate să-l vadă
165