Los gobiernos pueden usar ‘orientación’, en lugar de regulación, para fomentar la inteligencia artificial responsable.

Los gobiernos pueden usar ‘orientación’, en lugar de regulación, para fomentar la inteligencia artificial responsable.

En la actualidad, los gobiernos están tratando de encontrar un equilibrio delicado con respecto a la inteligencia artificial generativa. Regular demasiado duro puede sofocar la innovación, mientras que regular demasiado suave abre la puerta a amenazas disruptivas como deep fakes y la desinformación. La inteligencia artificial generativa puede potenciar tanto a actores maliciosos como a aquellos que intentan defenderse de ellos.

Durante una sesión de discusión sobre la innovación responsable en inteligencia artificial la semana pasada, los ponentes en el evento Fortune Brainstorm AI en Singapur reconocieron que sería difícil lograr un conjunto global de reglas de inteligencia artificial que se ajuste a todos.

Los gobiernos ya difieren en cuanto a cuánto desean regular. Por ejemplo, la Unión Europea tiene un conjunto de normas exhaustivo que rige cómo las empresas desarrollan y aplican aplicaciones de inteligencia artificial. Otros gobiernos, como el de Estados Unidos, están desarrollando lo que Sheena Jacob, jefa de propiedad intelectual en CMS Holborn Asia, llama una «guía de marco»: sin leyes estrictas, sino más bien indicaciones en una dirección preferida.

«Una regulación excesiva sofocará la innovación en inteligencia artificial», advirtió Jacob.

Ella citó a Singapur como un ejemplo de dónde está ocurriendo la innovación, fuera de Estados Unidos y China. Si bien Singapur tiene una estrategia nacional de inteligencia artificial, el país no cuenta con leyes que regulen directamente la inteligencia artificial. En cambio, el marco general confía en partes interesadas como los responsables políticos y la comunidad académica para «hacer su parte» para facilitar la innovación de manera «sistemática y equilibrada».

Al igual que muchos otros en el evento Brainstorm AI en Singapur, los ponentes de la sesión de la semana pasada reconocieron que los países más pequeños aún pueden competir con países más grandes en el desarrollo de inteligencia artificial.

«Punto principal de la inteligencia artificial es nivelar el campo de juego», dijo Phoram Mehta, director de seguridad de la información de APAC en PayPal. (PayPal fue uno de los patrocinadores de la sesión de la semana pasada)

Pero los expertos también advirtieron contra los peligros de ignorar los riesgos de la inteligencia artificial.

«Lo que realmente la gente pasa por alto es que el hackeo cibernético de inteligencia artificial es un riesgo de ciberseguridad a nivel de junta mayor que cualquier otra cosa», dijo Ayesha Khanna, cofundadora de Addo AI y copresidenta de Fortune Brainstorm AI Singapur. «Si realizaras un ataque inmediato y simplemente arrojaras cientos de comandos que…envenenan los datos en el modelo fundamental, podría cambiar completamente la forma en que funciona la inteligencia artificial.»

Microsoft anunció a finales de junio que había descubierto una forma de hacer jailbreak a un modelo de inteligencia artificial generativa, haciéndolo ignorar sus límites contra la generación de contenido dañino relacionado con temas como explosivos, drogas y racismo.

Pero al preguntar cómo las empresas pueden bloquear a los actores maliciosos de sus sistemas, Mehta sugirió que la inteligencia artificial también puede ayudar a los «buenos».

La inteligencia artificial está «ayudando a los buenos a nivelar el campo de juego…es mejor estar preparado y utilizar la inteligencia artificial en esas defensas, en lugar de esperar y ver qué tipo de respuestas podemos obtener».

En resumen, encontrar un equilibrio adecuado en la regulación de la inteligencia artificial generativa es clave para fomentar la innovación mientras se protege contra posibles amenazas. La colaboración entre gobiernos, empresas y la comunidad académica parece ser fundamental para lograr un enfoque equilibrado y seguro en la implementación de la inteligencia artificial en nuestros sistemas.