Я вже деякий час думаю, що якщо хтось хоче створити ще одну «нову лабораторію штучного інтелекту, бо існуючі шкідливі для людства», їм слід мати чітку обов'язкову хартію зосередитися на інструментах аугментації людини і не будувати нічого з автономією > 1 хвилини часового горизонту *Навіть якщо* всі аргументи про безпеку виявляться хибними, компанії ASI, які прагнуть Maximum Autonomy Now, є дуже частими, ніша людських аугментаторів («не будуй Skynet, будуй костюми меха для розуму») залишається недооціненою. Також, будь ласка, зробіть його максимально відкритим.