Nie chciałem znowu rozmawiać na ten temat, ale cholera, co za kolosalne błędne obliczenie ze strony OpenAI na każdym poziomie. Problem nigdy nie polegał na tym, czy współpracować z rządem, czy nie. Zdecydowanie powinieneś współpracować z rządem. Podstawowy problem pojawił się, ponieważ próbowali być bohaterami w bardzo, bardzo delikatnej sytuacji, w bardzo delikatnym momencie. Hero ball jest niezwykle trudne, ale próbowali to wyczuć. Zamieściłem o tym post tuż przed/po tym, jak to się działo, że to po prostu nie miało sensu (możesz przeczytać moje posty, wszyscy nazywali mnie idiotą). Obliczenia ryzyka i nagrody były tak błędne i jednostronne. To miało brutalne drugorzędne skutki dla OpenAI, w tym to, że Anthropic zyskał *przynajmniej* uwagę wśród konsumentów i w niektórych częściach bazy pracowników *przynajmniej* zaniepokojonych, jeśli nie głęboko zdezorientowanych. Zamieszczam to nie po to, aby kogoś ośmieszyć, ale aby po prostu przedstawić swoją perspektywę, prawdopodobnie jest tu materiał na studium przypadku w Harvard Business School.