Ahora que llevamos algunos años, parece que las preocupaciones de seguridad de la IA son empíricamente válidas (por ejemplo, la piratería de recompensas en los modelos de codificación), pero el enfoque de OpenAI de "implementar, iterar y aprender" funcionó bien hasta ahora. Los modelos mejoran, algunas cosas se rompen y construyes barandillas a medida que avanzas...
Donde esto se rompe es si: 1) Otro actor despliega modelos poderosos en entornos consecuentes sin estas barandillas en lugar 2) Los modelos comienzan a mejorar demasiado rápido para que nuestro bucle OODA se mantenga al día (por ejemplo, escenario de singularidad)
Donde esto se rompe: 1) Otro actor despliega modelos poderosos en entornos consecuentes sin estas barandillas en lugar 2) Los modelos comienzan a mejorar demasiado rápido para que nuestro bucle OODA se mantenga al día (por ejemplo, escenario de singularidad)
Donde esto se rompe: 1) Otro actor despliega modelos poderosos en entornos consecuentes sin estas barreras en su lugar o 2) Los modelos comienzan a mejorar demasiado rápido para que nuestro bucle OODA se mantenga al día (por ejemplo, escenario de singularidad)
267