En respuesta a la amplia circulación en línea de imágenes falsas y explícitas de Taylor Swift, políticos estadounidenses han solicitado la creación de nuevas leyes para criminalizar la producción de imágenes deepfake.Las controvertidas imágenes fueron difundidas en varias plataformas de redes sociales, incluyendo X y Telegram, generando millones de visualizaciones. El Representante de EE. UU. Joe Morelle calificó la propagación de las fotos como «espantosa».
En un comunicado, la plataforma X afirmó estar «eliminando activamente» las imágenes y tomando «acciones apropiadas» contra las cuentas responsables de su difusión. Añadió: «Estamos monitoreando de cerca la situación para garantizar que cualquier violación adicional sea abordada de inmediato y que el contenido sea eliminado».
Aunque muchas de las imágenes parecen haber sido eliminadas al momento de la publicación, se informó que una foto de Swift fue vista 47 millones de veces antes de ser retirada.
La búsqueda de términos como «Taylor Swift» en X ya no arroja resultados, junto con expresiones como «Taylor Swift AI» y «Taylor AI».
Los deepfakes utilizan inteligencia artificial (IA) para crear videos manipulando el rostro o cuerpo de una persona. Un estudio en 2023 reveló un aumento del 550% en la creación de imágenes manipuladas desde 2019, impulsado por el avance de la IA.
Actualmente, no existen leyes federales que prohíban la creación o difusión de imágenes deepfake en los Estados Unidos, aunque se han llevado a cabo acciones a nivel estatal para abordar el problema.
En el Reino Unido, el intercambio de pornografía deepfake se volvió ilegal como parte de su Ley de Seguridad en Línea en 2023.
El Representante Demócrata Morelle, quien el año pasado presentó el proyecto de ley Preventing Deepfakes of Intimate Images Act – que habría prohibido compartir deepfake pornográfico sin consentimiento – solicitó acciones urgentes sobre el tema. Afirmó que estas imágenes y videos «pueden causar daño emocional, financiero y reputacional irreparable, y desafortunadamente, las mujeres se ven desproporcionadamente afectadas».
La pornografía constituye la abrumadora mayoría de los deepfakes publicados en línea, con mujeres representando el 99% de los objetivos de dicho contenido, según el informe State of Deepfakes publicado el año pasado.
La Representante Demócrata Yvette D Clarke comentó en X: «Lo que le sucedió a Taylor Swift no es nada nuevo», señalando que las mujeres han sido blanco de esta tecnología «durante años». Agregó que con «los avances en la IA, crear deepfakes es más fácil y más barato».
El Congresista Republicano Tom Kean Jr estuvo de acuerdo, afirmando que «es evidente que la tecnología de la IA está avanzando más rápido que las salvaguardias necesarias». Añadió: «Ya sea la víctima Taylor Swift o cualquier joven en nuestro país, debemos establecer protecciones para combatir esta tendencia alarmante».
Hasta el momento, Swift no ha comentado públicamente sobre las imágenes, pero el Daily Mail informó que su equipo está «considerando acciones legales» contra el sitio que publicó las imágenes generadas por IA.
Las preocupaciones sobre el contenido generado por IA han aumentado a medida que miles de millones de personas votan en las elecciones de este año en todo el mundo.
Esta semana, una llamada robocall falsa que afirmaba ser del presidente de EE. UU., Joe Biden, generó una investigación. Se cree que fue realizada mediante inteligencia artificial.