Já pensei há um tempo que, se alguém quiser criar mais um "novo laboratório de IA porque os existentes não são bons para a humanidade", deveria ter uma carta explícita vinculante para focar em ferramentas de aumento humano e não construir nada com > autonomia de horizonte temporal de 1 minuto *Mesmo que* todos os argumentos sobre segurança acabem errados, empresas de ASI que buscam o Maximum Autonomy Now são comuns, o nicho de aumento humano ("não construa Skynet, construa trajes mecha para a mente") é subatendido. Também, por favor, faça o código aberto o máximo possível.