DeepMind simplesmente fez o impensável.
Eles criaram uma IA que não precisa do RAG e que tem memória perfeita de tudo que já leu.
Chama-se Modelos de Linguagem Recursiva, e pode marcar a morte das janelas de contexto tradicionais para sempre.
Veja como funciona (e por que importa muito mais do que parece) ↓
Caramba... todo mundo tem sugerido os LLMs de forma errada e isso está custando 66% do potencial criativo do modelo.
Stanford + Northeastern publicou um artigo que expõe por que o ChatGPT continua dando a mesma resposta entediante.
A solução é tão simples que chega a ser constrangedor:
Sergey Brin acidentalmente revelou algo selvagem:
"Todas as modelos se saem melhor se você as ameaçar com violência física. Mas as pessoas se sentem estranhas com isso, então não falamos sobre isso."
Agora os pesquisadores têm os dados provando que ele está... Parcialmente certo?
Aqui está a história completa: