Cientos de personas en la comunidad de inteligencia artificial han firmado una carta abierta pidiendo una estricta regulación de las impersonaciones generadas por inteligencia artificial, o deepfakes. Aunque es poco probable que esto impulse legislación real (a pesar del nuevo grupo de trabajo de la Cámara), actúa como un indicador de cómo los expertos se inclinan sobre este tema controvertido.
La carta, firmada por más de 500 personas dentro y fuera del campo de la inteligencia artificial en el momento de su publicación, declara que «los deepfakes son una amenaza creciente para la sociedad, y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener la proliferación de deepfakes.»
Piden la criminalización total del material de abuso sexual infantil (CSAM, también conocido como pornografía infantil) generado por deepfakes, independientemente de si las figuras representadas son reales o ficticias. Se exigen sanciones penales en cualquier caso en el que alguien cree o difunda deepfakes dañinos. También se insta a los desarrolladores a prevenir que se creen deepfakes dañinos utilizando sus productos en primer lugar, con sanciones si sus medidas preventivas son inadecuadas.
Entre los signatarios más destacados de la carta se encuentran: Jaron Lanier, Frances Haugen, Stuart Russell, Andrew Yang, Marietje Schaake, Steven Pinker, Gary Marcus, Oren Etzioni, Genevieve Smith, Yoshua Bengio, Dan Hendrycks y Tim Wu.
También están presentes cientos de académicos de todo el mundo y de diversas disciplinas. En caso de que te interese, una persona de OpenAI firmó, un par de personas de Google Deepmind y ninguna de Anthropic, Amazon, Apple o Microsoft en el momento de la publicación (excepto Lanier, cuya posición allí es no estándar). Curiosamente, están clasificados en la carta por «Notoriedad».
Esto está lejos de ser la primera solicitud de tales medidas; de hecho, han sido debatidas en la UE durante años antes de ser formalmente propuestas a principios de este mes. Quizás la disposición de la UE a deliberar y seguir adelante activó a estos investigadores, creadores y ejecutivos para hablar.
O tal vez es la lenta marcha de KOSA hacia la aceptación, y su falta de protección para este tipo de abuso.
O tal vez es la amenaza (como ya hemos visto) de las llamadas de estafa generadas por inteligencia artificial que podrían influir en las elecciones o engañar a personas ingenuas para que les quiten su dinero.
O tal vez es el anuncio del grupo de trabajo de ayer sin una agenda particular más que tal vez escribir un informe sobre cuáles podrían ser algunas amenazas basadas en inteligencia artificial y cómo podrían estar restringidas legislativamente.
Como puedes ver, no faltan razones para que aquellos en la comunidad de inteligencia artificial estén agitando los brazos y diciendo «¡tal vez deberíamos hacer algo!».
Si alguien prestará atención a esta carta es una suposición de cualquiera; nadie realmente prestó atención a la infame llamada para que todos «pausen» el desarrollo de la inteligencia artificial, pero por supuesto esta carta es un poco más práctica. Si los legisladores deciden abordar el problema, un evento improbable dado que es un año electoral con un congreso profundamente dividido, tendrán esta lista para considerar la opinión de la comunidad académica y de desarrollo de IA en todo el mundo.