A DeepMind acabou de fazer o impensável.
Eles construíram uma IA que não precisa de RAG e tem memória perfeita de tudo o que já leu.
Chama-se Modelos de Linguagem Recursivos, e pode marcar a morte das janelas de contexto tradicionais para sempre.
Aqui está como funciona (e por que isso importa muito mais do que parece) ↓
Caramba... toda a gente tem solicitado LLMs de forma errada e isso está a custar-lhes 66% do potencial criativo do modelo.
Stanford + Northeastern publicaram um artigo que expõe porque é que o ChatGPT continua a dar-lhe a mesma resposta aborrecida.
A solução é tão simples que é embaraçoso:
Sergey Brin revelou acidentalmente algo louco:
"Todos os modelos se saem melhor se os ameaçarem com violência física. Mas as pessoas se sentem estranhas com isso, então não falamos sobre isso."
Agora os pesquisadores têm os dados provando que ele está... parcialmente certo?
Aqui está a história completa: