DeepMind gjorde precis det otänkbara.
De byggde en AI som inte behöver RAG och den har perfekt minne av allt den någonsin läst.
Det kallas Rekursiva språkmodeller, och det kan markera slutet för traditionella kontextfönster för alltid.
Så här fungerar det (och varför det är mycket viktigare än det låter) ↓
Herregud... alla har gjort fel prompter till LLM:er och det kostar dem 66 % av modellens kreativa potential.
Stanford + Northeastern släppte en artikel som förklarar varför ChatGPT fortsätter ge dig samma tråkiga svar.
Lösningen är så enkel att det är pinsamt:
Sergey Brin råkade avslöja något galet:
"Alla modeller klarar sig bättre om du hotar dem med fysisk våld. Men folk känner sig konstiga över det, så vi pratar inte om det."
Nu har forskarna data som bevisar att han är... Delvis eller hur?
Här är hela historien: