Dos antiguos investigadores de OpenAI que renunciaron este año por preocupaciones de seguridad dicen que están decepcionados pero no sorprendidos por la decisión de OpenAI de oponerse al proyecto de ley de California para prevenir desastres de IA, SB 1047. Daniel Kokotajlo y William Saunders previamente advirtieron que OpenAI está en una carrera «temeraria» por la dominancia.
«Sam Altman, nuestro ex jefe, ha llamado repetidamente a la regulación de la IA», escriben en una carta que fue compartida con Politico y que insta al gobernador de California, Gavin Newsom, a firmar el proyecto de ley. «Ahora, cuando la regulación real está sobre la mesa, él la rechaza.» Los dos agregan que, «Con la regulación adecuada, esperamos que OpenAI pueda cumplir con su declaración de misión de construir AGI de manera segura.»
En respuesta a los antiguos empleados, un portavoz de OpenAI dijo que la startup «discrepa firmemente con la tergiversación de nuestra posición sobre SB 1047,» en una declaración a TechCrunch. El portavoz señaló los proyectos de ley de IA en el Congreso que OpenAI ha respaldado, señalando que «las regulaciones de seguridad de IA de vanguardia deberían implementarse a nivel federal debido a sus implicaciones para la seguridad nacional y la competitividad».
El rival de OpenAI, Anthropic, ha expresado su apoyo al proyecto de ley al presentar preocupaciones específicas y pedir enmiendas. Varias han sido incorporadas desde entonces, y el jueves, el CEO Dario Amodei escribió a Newsom, diciendo que los beneficios actuales del proyecto de ley «probablemente superan a sus costos,» sin respaldar completamente el proyecto de ley.