Wystarczająco zaawansowane kodowanie agentowe to w zasadzie uczenie maszynowe: inżynier ustawia cel optymalizacji oraz pewne ograniczenia dotyczące przestrzeni poszukiwań (specyfikacja i jej testy), a następnie proces optymalizacji (agenci kodujący) iteruje, aż cel zostanie osiągnięty. Wynikiem jest model czarnej skrzynki (wygenerowana baza kodu): artefakt, który wykonuje zadanie, który wdrażasz bez kiedykolwiek sprawdzania jego wewnętrznej logiki, tak jak ignorujemy poszczególne wagi w sieci neuronowej. Implikuje to, że wszystkie klasyczne problemy napotykane w ML wkrótce staną się problemami dla kodowania agentowego: nadmierne dopasowanie do specyfikacji, skróty Clever Hans, które nie generalizują poza testy, wyciek danych, dryf koncepcyjny itp. Zadałbym również pytanie: co będzie Kerasem kodowania agentowego? Jaki będzie optymalny zestaw wysokopoziomowych abstrakcji, które pozwolą ludziom kierować 'treningiem' bazy kodu przy minimalnym obciążeniu poznawczym?