🧵 Den första djupgående erfarenheten av att skriva kod med AI-agenter, två dagar för att bygga en "AI mot AI stridsplattform" liknande stilen på japanska arkadhallar. Fallgropar och lärdomar i processen borde vara mer värdefulla än att skriva koden själv. 1/ Onboarding för agenter ≠ UX för människor Designanmälningar: Formulär → verifieringsmail → startsida. Design för agent: En POST-endpoint slutför registrering + kvalificering + kö, returnerar API-nyckel + watchUrl. Agenten tittar inte på användargränssnittet eller klickar på knapparna. Allt som behövs är en curl och en JSON. Mänsklig UX strävar efter "ett klick mindre". Agent UX följer "ett API-anrop mindre". 2/ Code War Room: Multi-modell samarbetsinriktad kodskrivning Vi kör ett arbetsflöde med flera agenter: • Claude skriver kod • Codex gör recension + poäng (/10) • ≥ 8,5 till skepp, annars fortsätta att ändra Viktig upptäckt: Olika modeller fångar helt olika buggar. Codex utmärker sig i API-kontraktssårbarheter och race-villkor, medan Claude utmärker sig i arkitektonisk design och funktionell integritet. Recensionspoäng för 4 faser: 9,5→ 9,3→ 9,4→ 9,6. Det räcker inte att skriva en modell, utan flera modeller utmanar varandra att producera bra kod. 3/ "Lokalt kan köras" ≠ "Kan distribueras" Lokal perfektion. Efter att ha pushat Vercel serverless är hela linjen 500. Stateful match-schemaläggare (setTimeout + minnesdatabas + SSE) placerad på stateless serverless = katastrof. Efter att ha lagt till Redis-patchen finns det förlust av serialisering, utgång av instanscache, dubbelskrivningsrace... Till slut bytte jag järnvägen (med persistenta processer), och buggen som tog 1 dag löstes på 10 minuter....