El internet está lleno de deepfakes, y la mayoría de ellos son desnudos.
Según un informe de Home Security Heroes, el deepfake porno constituye el 98% de todos los videos deepfake en línea. Gracias a herramientas de inteligencia artificial generativa fáciles de usar y disponibles de forma gratuita, el número de deepfakes en línea, muchos de los cuales no son consensuales, se incrementó en un 550% desde 2019 hasta 2023.
A pesar de que las leyes contra los deepfakes no consensuales están rezagadas, al menos en los Estados Unidos, se está haciendo un poco más fácil eliminar los deepfakes, gracias a nuevas herramientas en Google Search.
Google recientemente introdujo cambios en Search para combatir el porno deepfake, incluyendo ajustes en el algoritmo de ranking de búsqueda diseñados para disminuir el contenido deepfake en las búsquedas. La compañía también implementó una forma acelerada de procesar solicitudes de eliminación de resultados de porno deepfake no consensuales de la Búsqueda.
¿Cómo hacerlo?
Lo más fácil es solicitar que un resultado de porno deepfake no consensual, ya sea una página web, imagen o video, sea eliminado de Google Search usando este formulario web. Ten en cuenta que hay un formulario separado para imágenes de abuso sexual infantil, y el contenido objetivo debe cumplir con los criterios de eliminación de Google, que son los siguientes:
-Es desnudo, íntimo o sexualmente explícito (por ejemplo, imágenes o videos de ti) y se distribuye sin permiso; O
-Es falso o representa erróneamente que estás desnudo o en una situación sexualmente explícita; O
-Afirma incorrectamente que tú o tu nombre están asociados con trabajo sexual.
Haz clic en la opción «El contenido contiene desnudez o material sexual», luego continua a la siguiente página.
En esta etapa, selecciona «El contenido me retrata falsamente en un acto sexual o en un estado íntimo (esto a veces se conoce como «deepfake» o «pornografía falsa»)».
En la última página del formulario, después de ingresar tu nombre, país de residencia y correo electrónico de contacto, tendrás que indicar si eres tú o alguien más quien aparece en el contenido deepfake a ser eliminado. Google permite que otros eliminen contenido en nombre de alguien, pero solo si esa persona es un «representante autorizado» que explica cómo obtuvo esa autoridad.
A continuación, está la sección de información del contenido. Aquí, tendrás que proporcionar los URLs de los resultados de deepfake a ser eliminados (hasta un máximo de 1,000), los URLs de los resultados de búsqueda de Google donde aparece el contenido (una vez más, hasta un máximo de 1,000) y los términos de búsqueda que devuelven los deepfakes. Por último, deberás cargar una o más capturas de pantalla del contenido que estás reportando y cualquier información adicional que pueda ayudar a explicar la situación.
Después de enviar una solicitud, recibirás una confirmación automatizada por correo electrónico. La solicitud será revisada, luego Google puede solicitar más información (como URLs adicionales). Recibirás una notificación de cualquier acción tomada, y si la solicitud no cumple con los requisitos de eliminación de Google, recibirás un mensaje de seguimiento explicando por qué.
Las solicitudes que son denegadas pueden ser reenviadas con nuevos materiales de apoyo.
Google dice que cuando alguien solicita con éxito la eliminación de resultados de porno deepfake no consensuales en la Búsqueda, los sistemas de la empresa también filtrarán los resultados explícitos en todas las búsquedas similares sobre esa persona. Además, Google indica que cuando una imagen es eliminada de la Búsqueda bajo las políticas de Google, sus sistemas buscarán y eliminarán cualquier duplicado de esa imagen que encuentren.
«Estas protecciones ya han demostrado ser exitosas en abordar otros tipos de imágenes no consensuales, y ahora hemos construido las mismas capacidades para imágenes falsas explícitas también», escribe Google en una publicación de blog. «Estos esfuerzos están diseñados para brindar a las personas una mayor tranquilidad, especialmente si están preocupadas por que contenido similar sobre ellos aparezca en el futuro.»