Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Lior Alexander
Meliput berita pengembang terbaru di AI • Pendiri @AlphaSignalAI (250 ribu pengguna)
ML Eng sejak 2017 • Ex-Mila
Seseorang baru saja melewati Neural Engine Apple untuk melatih model.
Neural Engine di dalam setiap Mac seri M dirancang untuk inferensi.
Jalankan model, jangan latih mereka. Tidak ada API publik, tidak ada dokumentasi, dan tentu saja tidak ada propagasi balik.
Seorang peneliti merekayasa balik API pribadi dan membangun loop pelatihan transformator yang berjalan maju dan mundur langsung pada perangkat keras ANE.
Metode ini melewati CoreML sepenuhnya.
Alih-alih menggunakan alat resmi Apple, proyek ini membangun program dalam MIL (Model Intermediate Language), mengkompilasinya dalam memori menggunakan API '_ANEClient' yang tidak terdokumentasi, dan memberi makan data melalui buffer memori bersama IOSurface.
Bobot dipanggang ke dalam program yang dikompilasi sebagai konstanta. E
Langkah pelatihan ACH mengirimkan enam kernel khusus: perhatian ke depan, umpan ke depan ke depan, lalu empat lintasan mundur yang menghitung gradien sehubungan dengan input.
Gradien berat masih berjalan pada CPU menggunakan pustaka matriks Accelerate, tetapi pengangkatan berat (matriks berlipat ganda, softmax, fungsi aktivasi) terjadi pada ANE.
Ini membuat tiga hal menjadi mungkin yang tidak ada sebelumnya:
1. Melatih model kecil secara lokal tanpa membakar baterai Anda
2. Menyempurnakan pada perangkat tanpa mengirim data ke server atau memutar GPU
3. Teliti apa yang sebenarnya dapat dilakukan perangkat keras ANE ketika Anda mengabaikan pagar pembatas Apple
Jika pendekatan ini berskala, gelombang AI di perangkat berikutnya berhenti tentang menjalankan model beku orang lain.

Vali Neagu2 Mar, 21.07
IYA! Seseorang merekayasa balik Neural Engine Apple dan melatih jaringan saraf di atasnya.
Apple tidak pernah mengizinkan ini. ANE hanya bersifat inferensi. Tidak ada API publik, tidak ada dokumen.
Mereka tetap membukanya.
Mengapa itu penting:
• M4 ANE = 6,6 TFLOPS/W vs 0,08 untuk A100 (80× lebih efisien)
• "38 TOPS" adalah kebohongan - throughput sebenarnya adalah 19 TFLOPS FP16
• Mac mini Anda memiliki chip ini sebagian besar menganggur
Terjemahan: inferensi AI lokal yang lebih cepat DAN hampir tidak menggunakan daya.
Masih penelitian awal tetapi pintunya sekarang terbuka.
→
#AI #MachineLearning #AppleSilicon #LocalAI #OpenSource #ANE #CoreML #AppleSilicon #NPU #KCORES

607
Alibaba mengirimkan empat model kecil Qwen 3.5 dengan trik yang dipinjam dari model 397B mereka: perhatian hibrida Gated DeltaNet.
Tiga lapisan perhatian linier untuk setiap satu lapisan perhatian penuh.
Lapisan linier menangani komputasi rutin dengan penggunaan memori konstan. Lapisan perhatian penuh hanya menyala ketika presisi penting.
Rasio 3:1 ini menjaga memori tetap datar sementara kualitasnya tetap tinggi, itulah sebabnya bahkan model 0,8B mendukung jendela konteks 262.000 token.
Setiap model menangani teks, gambar, dan video secara asli.
Tidak ada adaptor yang dibaut setelahnya. Encoder visi menggunakan konvolusi 3D untuk menangkap gerakan dalam video, lalu menggabungkan fitur dari beberapa lapisan, bukan hanya yang terakhir.
9B mengalahkan GPT-5-Nano dengan 13 poin pada pemahaman multimodal, 17 poin pada matematika visual, dan 30 poin pada penguraian dokumen. 0.8B berjalan di ponsel dan memproses video. 4B muat dalam VRAM 8GB dan bertindak sebagai agen multimodal. Keempatnya adalah Apache 2.0.
Jika arsitektur ini berlaku, ruang model kecil hanya menjadi perlombaan kemampuan, bukan perlombaan ukuran.
Setahun yang lalu, menjalankan model multimoda secara lokal berarti model 13B+ dan GPU yang serius.
Sekarang model 4B dengan konteks 262K menangani teks, gambar, dan video dari perangkat keras konsumen.
Kesenjangan antara model tepi dan model unggulan menutup lebih cepat daripada kesenjangan antara flagship dan manusia.

Qwen2 Mar, 21.18
🚀 Memperkenalkan Seri Model Kecil Qwen 3.5
Qwen3.5-0.8B · Qwen3.5-2B · Qwen3.5-4B · Qwen3.5-9B
✨ Lebih banyak kecerdasan, lebih sedikit komputasi.
Model-model kecil ini dibangun di atas fondasi Qwen3.5 yang sama — multimoda asli, arsitektur yang ditingkatkan, RL berskala:
• 0.8B / 2B → kecil, cepat, bagus untuk perangkat tepi
• 4B → basis multimoda yang sangat kuat untuk agen ringan
• 9B → kompak, tetapi sudah menutup celah dengan model yang jauh lebih besar
Dan ya — kami juga merilis model Base juga.
Kami berharap ini lebih mendukung penelitian, eksperimen, dan inovasi industri dunia nyata.
Wajah Memeluk:
Ruang lingkup model:

183
Apakah mungkin untuk membatasi jangkauan akun yang berulang kali ditandai karena informasi yang salah?
Anda dapat menggunakan Catatan Komunitas atau Grok untuk melacak teguran.
Saya mendukung kebebasan berbicara, tetapi ketika akun dengan 1 juta pengikut dengan sengaja menyebarkan informasi palsu yang mencapai 25 juta tayangan, itu memiliki konsekuensi di dunia nyata.
@nikitabier
136
Teratas
Peringkat
Favorit
