Ny forskning om att förbättra självreflektion hos språkagenter. Ett kärnproblem med agentens självreflektion är att modeller tenderar att generera upprepade reflektioner som lägger till brus istället för signal, vilket försämrar den övergripande resonemangsförmågan. Den introducerar ParamMem, en parametrisk minnesmodul som kodar korsprovsreflektionsmönster direkt in i modellparametrar och sedan använder temperaturkontrollerad sampling för att generera olika reflektioner vid inferenstidpunkten. ParamMem visar konsekventa förbättringar jämfört med SOTA-baslinjer inom kodgenerering, matematisk resonemang och multi-hop QA. Den möjliggör också svag till stark överföring och självförbättring utan att behöva en starkare extern modell, vilket gör den till en praktisk uppgradering för agentiska pipelines. Papper: Lär dig att bygga effektiva AI-agenter i vår akademi: