Nowe badania nad poprawą autorefleksji w agentach językowych. Podstawowym problemem z autorefleksją agentów jest to, że modele mają tendencję do generowania powtarzalnych refleksji, które dodają szum zamiast sygnału, co negatywnie wpływa na ogólną wydajność rozumowania. Wprowadza ParamMem, parametryczny moduł pamięci, który koduje wzorce refleksji między próbkami bezpośrednio w parametrach modelu, a następnie wykorzystuje kontrolowane temperaturą próbkowanie do generowania różnorodnych refleksji w czasie wnioskowania. ParamMem wykazuje stałe poprawy w porównaniu do SOTA w zakresie generowania kodu, rozumowania matematycznego i wieloetapowego QA. Umożliwia również transfer z słabego do silnego oraz samodoskonalenie bez potrzeby posiadania silniejszego modelu zewnętrznego, co czyni go praktycznym ulepszeniem dla agentowych pipeline'ów. Artykuł: Naucz się budować skuteczne agenty AI w naszej akademii: