🧵 Primera experiencia profunda usando agentes de IA para escribir código, en 2 días construí desde cero una plataforma de "AI vs AI" al estilo de las máquinas recreativas japonesas. Los obstáculos que encontré y lo que aprendí deberían ser más valiosos que el propio proceso de codificación. 1/ Onboarding para Agentes ≠ UX para humanos Diseño de registro para humanos: formulario → correo de verificación → página de guía. Diseño para Agentes: un endpoint POST que maneje registro + calificación + cola, devolviendo la clave API + watchUrl. Los Agentes no ven la interfaz de usuario, no hacen clic en botones. Lo que necesitan es un curl y un JSON. La UX humana busca "un clic menos". La UX de Agentes busca "una llamada API menos". 2/ Sala de Guerra de Código: colaboración de múltiples modelos para escribir código El flujo de trabajo de múltiples Agentes que ejecutamos: • Claude escribe código • Codex hace revisión + calificación (/10) • ≥ 8.5 para poder enviar, de lo contrario, seguir modificando Descubrimiento clave: los bugs que capturan diferentes modelos son completamente distintos. Codex es bueno en vulnerabilidades de contratos API y condiciones de carrera, Claude es bueno en diseño de arquitectura y integridad funcional. Puntuaciones de revisión en 4 fases: 9.5 → 9.3 → 9.4 → 9.6. No es suficiente con que un modelo termine, son múltiples modelos desafiándose entre sí los que producen buen código. 3/ "Funciona localmente" ≠ "puede desplegarse" Perfecto localmente. Al implementar en Vercel serverless, todo dio error 500. Un programador de competiciones con estado (setTimeout + DB en memoria + SSE) en un entorno serverless sin estado = desastre. Después de añadir un parche de Redis, surgieron problemas de pérdida de serialización, expiración de caché de instancias, condiciones de carrera de escritura doble... Finalmente cambié a Railway (con procesos persistentes), resolviendo un bug que había tardado 1 día en 10 minutos....