En fullstack/ML-forskningsingenjör, främst engagerad i AI, LLM, MLX-relaterade saker @JohnMai_Dev Den 3 mars 2026 implementerades inferensen av Qwen3.5-0.8B-modellen framgångsrikt på Apple M1 Pro-chippet, och den kördes direkt med Apple Neural Engine (ANE). Baserat på ett open source-projekt: Direkt ringa Apple Neural Engine för banbrytande arbete inom träning och inferens, trodde många att Apple inte skulle öppna ANE för full träning/inferens. Tidigare användes ANE främst bara för CoreML-inferensen inbyggd i systemet, och det var svårt för tredje part att anropa direkt och effektivt, men nu kan man via maderix/ANE direkt använda ANE för att köra vidare inferensen av moderna stora modeller (vissa gör till och med backprop-träning) Och baserat på den lilla modellen 0,8 B som lanserades av Qwen + ANE = extremt låg strömförbrukning, bra hastighet och fullständig lokal integritet M1 Pro kan köras, vilket innebär att många gamla Mac-användare (M1/M2-serien) plötsligt har ett mycket effektivt AI-acceleratoralternativ, som är mer energieffektivt och snabbare än att bara använda GPU/CPU Anes samarbete har helt förvandlat Mac till en billig lokal AI-arbetsstation, och Apples gamla maskiner kan resoneras med den moderna kinesiska stora modellen (Qwen3.5 0.8B), vilket öppnar dörren för nya sätt att spela Mac lokalt och effektivt AI.