El ex jefe de la Agencia de Seguridad Nacional, el general retirado Paul Nakasone, se unirá a la junta directiva de OpenAI, la compañía de inteligencia artificial anunció el jueves por la tarde. También formará parte del subcomité de «seguridad y protección» de la junta.
Esta adición de alto perfil probablemente tiene como objetivo satisfacer a los críticos que piensan que OpenAI está avanzando más rápido de lo que es sabio para sus clientes y posiblemente para la humanidad, lanzando modelos y servicios sin evaluar adecuadamente sus riesgos o asegurarlos.
Nakasone aporta décadas de experiencia del Ejército, el Comando Cibernético de los Estados Unidos y la NSA. Independientemente de lo que uno pueda sentir sobre las prácticas y la toma de decisiones en estas organizaciones, ciertamente no se le puede acusar de falta de experiencia.
A medida que OpenAI se establece cada vez más como un proveedor de inteligencia artificial no solo para la industria tecnológica, sino también para el gobierno, la defensa y las grandes empresas, este tipo de conocimiento institucional es valioso tanto en sí mismo como tranquilizante para los accionistas preocupados. (Sin duda, las conexiones que aporta en el aparato estatal y militar también son bienvenidas).
«La dedicación de OpenAI a su misión se alinea estrechamente con mis propios valores y experiencia en el servicio público», dijo Nakasone en un comunicado de prensa.
Eso ciertamente parece cierto: Nakasone y la NSA recientemente defendieron la práctica de comprar datos de procedencia cuestionable para alimentar sus redes de vigilancia, argumentando que no había ninguna ley en contra. Por su parte, OpenAI simplemente ha tomado, en lugar de comprar, grandes porciones de datos de internet, argumentando cuando es descubierto que no hay ninguna ley en contra. Parecen estar de acuerdo cuando se trata de pedir perdón en lugar de permiso, si es que piden alguno.
El comunicado de OpenAI también indica:
«Las ideas de Nakasone también contribuirán a los esfuerzos de OpenAI para comprender mejor cómo la inteligencia artificial puede ser utilizada para fortalecer la ciberseguridad mediante la detección y respuesta rápida a amenazas cibernéticas. Creemos que la inteligencia artificial tiene el potencial de brindar beneficios significativos en esta área para muchas instituciones que son frecuentemente atacadas por ciberataques como hospitales, escuelas e instituciones financieras.»
Así que, esto también es un nuevo movimiento en el mercado.
Nakasone se unirá al comité de seguridad y protección de la junta, que es «responsable de hacer recomendaciones a la junta completa sobre decisiones críticas de seguridad para proyectos y operaciones de OpenAI». Aún se desconoce qué hace en realidad esta entidad recién creada y cómo operará, ya que varios de los altos cargos que trabajan en seguridad (en cuanto a riesgo de inteligencia artificial) han abandonado la empresa, y el comité se encuentra en medio de una evaluación de 90 días de los procesos y salvaguardias de la compañía.