Ny forskning på å forbedre selvrefleksjon hos språkagenter. Et kjerneproblem med agentens selvrefleksjon er at modeller har en tendens til å generere repeterende refleksjoner som legger til støy i stedet for signal, noe som svekker den totale resonnementytelsen. Den introduserer ParamMem, en parametrisk minnemodul som koder kryssprøve-refleksjonsmønstre direkte inn i modellparametrene, og deretter bruker temperaturkontrollert prøvetaking for å generere ulike refleksjoner ved inferenstidspunkt. ParamMem viser konsekvente forbedringer sammenlignet med SOTA-baselines innen kodegenerering, matematisk resonnement og multi-hop QA. Den muliggjør også svak til sterk overføring og selvforbedring uten behov for en sterkere ekstern modell, noe som gjør den til en praktisk oppgradering for agentiske pipelines. Artikkel: Lær å bygge effektive AI-agenter i vår akademi: