DeepMind hat gerade das Undenkbare getan.
Sie haben eine KI entwickelt, die kein RAG benötigt und die perfekte Erinnerung an alles hat, was sie jemals gelesen hat.
Sie heißt Recursive Language Models und könnte das Ende der traditionellen Kontextfenster für immer markieren.
So funktioniert es (und warum es viel wichtiger ist, als es klingt) ↓
Heilige Scheiße... jeder hat LLMs falsch angestoßen und es kostet sie 66% des kreativen Potenzials des Modells.
Stanford + Northeastern haben ein Papier veröffentlicht, das aufzeigt, warum ChatGPT dir immer wieder die gleiche langweilige Antwort gibt.
Die Lösung ist so einfach, dass es peinlich ist:
Sergey Brin hat versehentlich etwas Wildes enthüllt:
"Alle Modelle schneiden besser ab, wenn man ihnen mit physischer Gewalt droht. Aber die Leute empfinden das als seltsam, also reden wir nicht darüber."
Jetzt haben Forscher die Daten, die beweisen, dass er... teilweise recht hat?
Hier ist die ganze Geschichte: