Alguien acaba de eludir el Neural Engine de Apple para entrenar modelos. El Neural Engine dentro de cada Mac de la serie M fue diseñado para inferencia. Ejecuta modelos, no los entrenes. Sin API pública, sin documentación, y ciertamente sin retropropagación. Un investigador descompuso las APIs privadas de todos modos y construyó un bucle de entrenamiento de transformadores que ejecuta pasadas hacia adelante y hacia atrás directamente en el hardware del ANE. El método elude completamente CoreML. En lugar de usar las herramientas oficiales de Apple, el proyecto construye programas en MIL (Model Intermediate Language), los compila en memoria utilizando APIs `_ANEClient` no documentadas, y alimenta datos a través de búferes de memoria compartida de IOSurface. Los pesos se incorporan en los programas compilados como constantes. Cada paso de entrenamiento despacha seis núcleos personalizados: atención hacia adelante, alimentación hacia adelante, y luego cuatro pasadas hacia atrás que calculan gradientes con respecto a las entradas. Los gradientes de peso aún se ejecutan en la CPU utilizando las bibliotecas de matrices de Accelerate, pero el trabajo pesado (multiplicaciones de matrices, softmax, funciones de activación) ocurre en el ANE. Esto hace posible tres cosas que antes no lo eran: 1. Entrenar modelos pequeños localmente sin agotar tu batería 2. Ajustar finamente en el dispositivo sin enviar datos a un servidor o activar la GPU 3. Investigar lo que el hardware del ANE puede hacer realmente cuando ignoras las restricciones de Apple Si este enfoque escala, la próxima ola de IA en el dispositivo dejará de tratarse de ejecutar el modelo congelado de otra persona.