Novas pesquisas sobre a melhoria da autorreflexão em agentes linguísticos. Um problema central da autorreflexão do agente é que os modelos tendem a gerar reflexões repetitivas que adicionam ruído em vez de sinal, prejudicando o desempenho geral do raciocínio. Ele introduz o ParamMem, um módulo de memória paramétrica que codifica padrões de reflexão cruzada diretamente nos parâmetros do modelo, e depois utiliza amostragem controlada por temperatura para gerar reflexões diversas no momento da inferência. O ParamMem apresenta melhorias consistentes em relação às linhas de base do SOTA em geração de código, raciocínio matemático e QA multi-hop. Também permite transferência de fraco para forte e autoaperfeiçoamento sem precisar de um modelo externo mais forte, tornando-se uma atualização prática para pipelines agentes. Papel: Aprenda a construir agentes de IA eficazes em nossa academia: