Meta Reforzará la Lucha contra las Falsificaciones Generadas por IA, Pero Dejará Muchas Sin Detectar

Algunas imágenes generadas por IA publicadas en Facebook, Instagram y Threads en el futuro serán etiquetadas como artificiales. Pero solo si son creadas utilizando herramientas de compañías dispuestas a colaborar con Meta.

Meta, al igual que otras principales empresas tecnológicas, ha pasado el último año prometiendo acelerar la implementación de la inteligencia artificial generativa. Hoy reconoció que también debe responder a los peligros de la tecnología, anunciando una política ampliada de etiquetado de imágenes generadas por IA publicadas en Facebook, Instagram y Threads con etiquetas de advertencia para informar a las personas sobre sus orígenes artificiales.

Sin embargo, gran parte de los medios sintéticos que probablemente aparezcan en las plataformas de Meta no estarán cubiertos por la nueva política, dejando muchos vacíos por los cuales podrían pasar los actores malintencionados. «Es un paso en la dirección correcta, pero con desafíos», dice Sam Gregory, director de programa de la organización sin fines de lucro Witness, que ayuda a las personas a utilizar la tecnología en apoyo de los derechos humanos.

Meta ya etiqueta las imágenes generadas por IA utilizando sus propias herramientas de IA generativa con la etiqueta «Imaginado con IA», en parte buscando la «marca de agua» digital que sus algoritmos incrustan en su salida. Ahora Meta dice que en los próximos meses también etiquetará las imágenes generadas por IA hechas con herramientas ofrecidas por otras compañías que incrustan marcas de agua en su tecnología.

Se supone que la política reducirá el riesgo de que se difundan desinformación a través de imágenes generadas por IA que se pasan como fotos. Pero aunque Meta dijo que está trabajando para apoyar la tecnología de divulgación en desarrollo en Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock, la tecnología aún no está ampliamente implementada. Y muchas herramientas de generación de imágenes por IA están disponibles que no incluyen marcas de agua en su salida, con la tecnología cada vez más fácil de acceder y modificar. «La única manera en que un sistema como ese será efectivo es si una amplia gama de herramientas y plataformas generativas participan», dice Gregory.

Incluso si hay un amplio apoyo para la marca de agua, no está claro qué tan robusta será cualquier protección que ofrezca. No hay un estándar universal implementado, pero la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), una iniciativa fundada por Adobe, ha ayudado a las empresas a comenzar a alinear su trabajo en el concepto. Pero la tecnología desarrollada hasta ahora no es infalible. En un estudio publicado el año pasado, los investigadores encontraron que podían romper fácilmente marcas de agua o agregarlas a imágenes que no habían sido generadas por IA para hacer que pareciera que sí lo habían sido.

Vacío Malicioso Hany Farid, profesor en la Escuela de Información de la UC Berkeley que ha asesorado a la iniciativa C2PA, dice que cualquiera interesado en usar la IA generativa de manera maliciosa probablemente recurrirá a herramientas que no incluyan marcas de agua en su salida o revelen su naturaleza. Por ejemplo, los creadores de la llamada telefónica falsa utilizando la voz del presidente Joe Biden dirigida a algunos votantes de Nuevo Hampshire el mes pasado no agregaron ninguna divulgación de sus orígenes.

Y cree que las compañías deberían estar preparadas para que los actores malintencionados apunten a cualquier método que intenten usar para identificar la procedencia del contenido. Farid sospecha que podrían necesitarse múltiples formas de identificación en conjunto para identificar de manera sólida las imágenes generadas por IA, por ejemplo, combinando el marcado de agua con tecnología basada en hash utilizada para crear listas de vigilancia de material de abuso sexual infantil. Y el marcado de agua es un concepto menos desarrollado para los medios generados por IA que no sean imágenes, como audio y video.

«Si bien las compañías están comenzando a incluir señales en sus generadores de imágenes, aún no han comenzado a incluirlas en herramientas de IA que generan audio y video a la misma escala, por lo que aún no podemos detectar esas señales y etiquetar este contenido de otras compañías», reconoce Kevin McAlister, portavoz de Meta. «Mientras la industria trabaja hacia esta capacidad, estamos agregando una función para que las personas divulguen cuando comparten video o audio generado por IA para que podamos agregar una etiqueta a él.»

Las nuevas políticas de Meta pueden ayudar a detectar más contenido falso, pero no todo el contenido manipulado es generado por IA. Una decisión emitida el lunes por la Junta de Supervisión independiente de Meta, que revisa algunas llamadas de moderación, respaldó la decisión de la compañía de dejar en pie un video del presidente Joe Biden que había sido editado para hacer parecer que está tocando inapropiadamente el pecho de su nieta. Pero la junta dijo que aunque el video, que no fue generado por IA, no violaba las políticas actuales de Meta, debería revisar y ampliar sus reglas para el «medio manipulado» para cubrir más que solo el contenido generado por IA.

McAlister, el portavoz de Meta, dice que la compañía está «revisando la orientación de la Junta de Supervisión y responderá públicamente a sus recomendaciones dentro de los 60 días de acuerdo con los estatutos». Farid dice que el vacío en las políticas de Meta y el enfoque técnico solo en imágenes generadas por IA marcadas sugieren que el plan de la compañía para la era de la IA generativa está incompleto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *