Políticos estadounidenses han solicitado nuevas leyes para criminalizar la creación de imágenes deepfake, después de que fotos falsas explícitas de Taylor Swift fueran vistas millones de veces en línea.
Las imágenes fueron publicadas en sitios de redes sociales, incluyendo X y Telegram.
El representante estadounidense Joe Morelle calificó la propagación de las imágenes como «horrible».
En un comunicado, X dijo que estaba «eliminando activamente» las imágenes y tomando «acciones apropiadas» contra las cuentas involucradas en su difusión.
Añadió: «Estamos monitoreando de cerca la situación para asegurarnos de que cualquier otra violación sea abordada de inmediato y el contenido sea eliminado».
Aunque muchas de las imágenes parecen haber sido eliminadas en el momento de la publicación, una foto de Swift fue vista, según informes, 47 millones de veces antes de ser retirada.
El nombre «Taylor Swift» ya no es searchable en X, junto con términos como «Taylor Swift AI» y «Taylor AI».
Los deepfakes utilizan inteligencia artificial (IA) para hacer un video de alguien manipulando su rostro o cuerpo. Un estudio en 2023 encontró que ha habido un aumento del 550% en la creación de imágenes manipuladas desde 2019, alimentado por la aparición de la IA.
Actualmente, no existen leyes federales contra el intercambio o la creación de imágenes deepfake, aunque ha habido movimientos a nivel estatal para abordar el problema.
En el Reino Unido, el intercambio de pornografía deepfake se volvió ilegal como parte de su Ley de Seguridad en Línea en 2023.
El representante demócrata Morelle, quien el año pasado presentó el proyecto de ley propuesto para prevenir deepfakes de imágenes íntimas, que habría hecho ilegal compartir pornografía deepfake sin consentimiento, pidió una acción urgente sobre el tema.
Dijo que las imágenes y videos «pueden causar daños emocionales, financieros y reputacionales irreparables, y desafortunadamente, las mujeres se ven desproporcionadamente afectadas».
La pornografía constituye la abrumadora mayoría de los deepfakes publicados en línea, con mujeres representando el 99% de los objetivos en dicho contenido, según el informe Estado de los Deepfakes publicado el año pasado.
«Lo que le sucedió a Taylor Swift no es algo nuevo», escribió la representante demócrata Yvette D Clarke en X. Señaló que las mujeres han sido blanco de la tecnología «durante años», y con «los avances en la IA, crear deepfakes es más fácil y más barato».
El congresista republicano Tom Kean Jr estuvo de acuerdo, diciendo que «es claro que la tecnología de IA está avanzando más rápido que las barreras de protección necesarias».
«Ya sea que la víctima sea Taylor Swift o cualquier joven en todo nuestro país, necesitamos establecer salvaguardias para combatir esta tendencia alarmante», agregó.
Swift no ha hablado públicamente sobre las imágenes, pero el Daily Mail informó que su equipo está «considerando acciones legales» contra el sitio que publicó las imágenes generadas por IA.
Las preocupaciones sobre el contenido generado por IA han aumentado a medida que miles de millones de personas votan en elecciones este año en todo el mundo.
Esta semana, una llamada robocall falsa que pretendía ser del presidente de EE. UU., Joe Biden, provocó una investigación. Se cree que fue realizada por IA.