DeepMind właśnie zrobił coś nie do pomyślenia.
Stworzyli AI, które nie potrzebuje RAG i ma doskonałą pamięć o wszystkim, co kiedykolwiek przeczytało.
Nazywa się to Modele Językowe Rekurencyjne i może oznaczać koniec tradycyjnych okien kontekstowych na zawsze.
Oto jak to działa (i dlaczego ma to znacznie większe znaczenie, niż się wydaje) ↓
Święty Boże... wszyscy źle korzystają z LLM-ów, co kosztuje ich 66% kreatywnego potencjału modelu.
Stanford i Northeastern opublikowali artykuł, który ujawnia, dlaczego ChatGPT ciągle daje ci tę samą nudną odpowiedź.
Rozwiązanie jest tak proste, że aż żenujące:
Sergey Brin przypadkowo ujawnił coś szalonego:
"Wszystkie modele radzą sobie lepiej, jeśli grozi się im przemocą fizyczną. Ale ludzie czują się z tym dziwnie, więc o tym nie rozmawiamy."
Teraz badacze mają dane, które dowodzą, że ma... częściowo rację?
Oto cała historia: