Así que OpenZeppelin auditó EVMbench, ese benchmark de seguridad de IA de OpenAI y Paradigm. Resulta que los auditores de IA básicamente solo recuerdan errores de sus datos 🧵 de entrenamiento /1
Cada informe de auditoría publicado antes del corte de entrenamiento está integrado en el modelo. Así que cuando "encuentra" un error de reentrancia no está razonando sobre tu código, solo está comparando patrones con cientos de informes que ya memorizó
Enséñale un manual de reentrada ERC-777 y se ilumina al instante. Hallazgo clave, aquí está el CVE, aquí 12 incidentes similares ¿Mostrarle un error novedoso de la contabilidad en un mecanismo que nunca se ha visto? Marca los eventos perdidos y sigue adelante
Lo aterrador no es que se pierda cosas. Lo aterrador es que es completamente seguro de sí mismo sin hacer nada. Cero dudas. Solo vibraciones y coincidencia de patrones. sin duda útil, pero también insuficiente
Por eso mismo optamos por auditores humanos para Alchemix V3. Nuestro sistema de earmark/redeem, matemáticas de época + índice empaquetadas, acumuladores de supervivencia. nada de esto existe en ningún corpus de entrenamiento. Cero ejemplos. La IA literalmente no puede verlo
213