DeepMind щойно зробив немислиме.
Вони створили штучний інтелект, який не потребує RAG і має ідеальну пам'ять усього, що коли-небудь читав.
Вона називається Recursive Language Models і, можливо, назавжди ознаменує смерть традиційних контекстних вікон.
Ось як це працює (і чому це набагато важливіше, ніж звучить) ↓
Святі небеса... усі неправильно підказують LLM, і це коштує їм 66% творчого потенціалу моделі.
Stanford + Northeastern опублікували статтю, яка пояснює, чому ChatGPT постійно дає одну й ту саму нудну відповідь.
Виправлення настільки просте, що це соромно:
Сергій Брін випадково відкрив щось дике:
"Усі моделі почуваються краще, якщо погрожувати їм фізичним насильством. Але людям це дивно, тому ми про це не говоримо.»
Тепер дослідники мають дані, які доводять, що він... частково правильно?
Ось повна історія: