El gigante de las redes sociales Facebook e Instagram, Meta, anunció el viernes que comenzará a etiquetar los medios generados por IA a partir de mayo, en un esfuerzo por tranquilizar a los usuarios y a los gobiernos sobre los riesgos de los deepfakes.
La empresa de redes sociales agregó que ya no eliminará imágenes y audio manipulados que no violen sus reglas, confiando en cambio en la etiquetación y la contextualización, para no infringir la libertad de expresión.
Estos cambios son una respuesta a las críticas del comité de supervisión de la empresa, que revisa de manera independiente las decisiones de moderación de contenido de Meta.
El comité solicitó en febrero que Meta renovara urgentemente su enfoque hacia los medios manipulados, dado los grandes avances en IA y la facilidad para manipular medios en deepfakes altamente convincentes.
La advertencia del comité llegó en medio de temores por el uso desenfrenado de aplicaciones impulsadas por inteligencia artificial para la desinformación en plataformas en un año electoral crucial no solo en Estados Unidos sino en todo el mundo.
Las nuevas etiquetas «Hecho con IA» de Meta identificarán el contenido creado o alterado con IA, incluyendo video, audio e imágenes. Además, se utilizará una etiqueta más prominente para contenido considerado de alto riesgo de engañar al público.
«Estamos de acuerdo en que proporcionar transparencia y contexto adicional es ahora la mejor manera de abordar este contenido,» dijo Monika Bickert, Vicepresidenta de Política de Contenido de Meta, en una publicación de blog.
«Las etiquetas cubrirán un rango más amplio de contenido además del contenido manipulado que el Comité de Supervisión recomendó etiquetar,» añadió.
Estas nuevas técnicas de etiquetado están vinculadas a un acuerdo realizado en febrero entre las principales empresas tecnológicas y actores de IA para combatir el contenido manipulado destinado a engañar a los votantes.
Meta, Google y OpenAI ya habían acordado utilizar un estándar de marca de agua común que etiquetaría las imágenes generadas por sus aplicaciones de IA.
- Deepfakes de Biden –
Meta anunció que su implementación se realizará en dos fases, con la etiquetación de contenido generado por IA comenzando en mayo de 2024, mientras que la eliminación de medios manipulados basada únicamente en la política antigua cesará en julio.
Según el nuevo estándar, el contenido, incluso si está manipulado con IA, permanecerá en la plataforma a menos que viole otros Estándares Comunitarios, como aquellos que prohíben el discurso de odio o la interferencia en las elecciones.
Ejemplos recientes de deepfakes de IA convincentes solo han aumentado las preocupaciones sobre la tecnología fácilmente accesible.
La lista de solicitudes del comité fue parte de su revisión de la decisión de Meta de dejar un video manipulado del presidente de Estados Unidos, Joe Biden, en línea el año pasado.
El video mostraba a Biden votando con su nieta adulta, pero fue manipulado para hacer parecer falsamente que tocaba inapropiadamente su pecho.
En un incidente separado, una llamada robótica que se hacía pasar por Biden y se envió a decenas de miles de votantes instó a la gente a no votar en las primarias de New Hampshire.
En Pakistán, el partido del ex primer ministro Imran Khan ha utilizado la IA para generar discursos de su líder encarcelado.