Tilstrekkelig avansert agentisk koding er i hovedsak maskinlæring: ingeniøren setter opp optimaliseringsmålet samt noen begrensninger på søkerommet (spesifikasjonen og dens tester), deretter iterererer en optimaliseringsprosess (kodingsagenter) til målet nås. Resultatet er en blackbox-modell (den genererte kodebasen): en artefakt som utfører oppgaven, som du deployerer uten å noen gang inspisere dens interne logikk, akkurat som vi ignorerer individuelle vekter i et nevralt nettverk. Dette innebærer at alle klassiske problemer som møtes i ML snart vil bli problemer for agentisk koding: overtilpasning til spesifikasjonen, Clever Hans-snarveier som ikke generaliserer utenfor testene, datalekkasje, konseptdrift osv. Jeg vil også spørre: hva vil være Keras for agentisk koding? Hva vil være det optimale settet med høynivåabstraksjoner som gjør det mulig for mennesker å styre kodebase-'trening' med minimal kognitiv overhead?