Llevo tiempo pensando que si alguien quiere crear otro "nuevo laboratorio de IA porque los existentes no son buenos para la humanidad", debería tener una carta explícita que vincule centrarse en herramientas de aumento humano y no construir nada con > autonomía de horizonte temporal de 1 minuto *Incluso si* todos los argumentos sobre seguridad resultan erróneos, las empresas de ASI que buscan Máxima Autonomía Ahora son de la multitud, el nicho de aumento humano ("no construyas Skynet, construye trajes mecha para la mente") está desatendido. Además, por favor, hazlo lo más abierto posible.