DeepMind baru saja melakukan hal yang tidak terpikirkan.
Mereka membangun AI yang tidak membutuhkan RAG dan memiliki memori sempurna dari semua yang pernah dibacanya.
Ini disebut Model Bahasa Rekursif, dan itu mungkin menandai kematian jendela konteks tradisional selamanya.
Begini cara kerjanya (dan mengapa itu jauh lebih penting daripada kedengarannya) ↓
Astaga... semua orang telah salah mendorong LLM dan itu merugikan mereka 66% dari potensi kreatif model.
Stanford + Northeastern menjatuhkan makalah yang mengungkap mengapa ChatGPT terus memberi Anda jawaban membosankan yang sama.
Perbaikannya sangat sederhana sehingga memalukan:
Sergey Brin secara tidak sengaja mengungkapkan sesuatu yang liar:
"Semua model lebih baik jika Anda mengancam mereka dengan kekerasan fisik. Tapi orang-orang merasa aneh tentang itu, jadi kami tidak membicarakannya."
Sekarang para peneliti memiliki data yang membuktikan bahwa dia ... sebagian benar?
Berikut cerita lengkapnya: