DeepMind gjorde nettopp det utenkelige.
De bygde en AI som ikke trenger RAG, og den har perfekt hukommelse for alt den noen gang har lest.
Det kalles Rekursive språkmodeller, og det kan markere slutten for tradisjonelle kontekstvinduer for alltid.
Slik fungerer det (og hvorfor det betyr mye mer enn det høres ut) ↓
Herregud... alle har skrevet feil LLM-er, og det koster dem 66 % av modellens kreative potensial.
Stanford + Northeastern publiserte en artikkel som forklarer hvorfor ChatGPT stadig gir deg det samme kjedelige svaret.
Løsningen er så enkel at det er pinlig:
Sergey Brin avslørte ved et uhell noe vilt:
"Alle modeller gjør det bedre hvis du truer dem med fysisk vold. Men folk synes det er rart, så vi snakker ikke om det."
Nå har forskerne dataene som beviser at han er... Delvis ikke sant?
Her er hele historien: