OpenAI, Google y Microsoft Acuerdan la Detección de IA ‘Disruptiva’ en las Elecciones

OpenAI, Google y Microsoft Acuerdan la Detección de IA ‘Disruptiva’ en las Elecciones

Varios gigantes tecnológicos advierten al mundo sobre el potencial de la IA para ‘disruptir’ las elecciones mientras firman acuerdos para detectar creaciones de inteligencia artificial.

En 2024, se llevan a cabo elecciones en varios países, desde Indonesia, Sudáfrica, India, Taiwán, Estados Unidos (EE. UU.) hasta varios países de Europa.

Se dice que estos países están siendo eclipsados por la IA que podría ser aprovechada por partes irresponsables para ‘disruptir’ las festividades democráticas.

Por lo tanto, docenas de empresas tecnológicas involucradas en la construcción o el uso de tecnología de IA declararon cooperación el viernes (16/2) para detectar y combatir contenido dañino de IA en las elecciones, incluida la falsificación de candidatos políticos.

Los firmantes incluyen a OpenAI, Google, Meta, Microsoft, TikTok y Adobe.

El acuerdo, llamado «Acuerdo de Tecnología para Combatir el Uso Engañoso de IA en las Elecciones de 2024», incluye un compromiso de colaborar en tecnología para detectar contenido generado por IA que sea engañoso.

Además, tiene como objetivo ser transparente para el público sobre los esfuerzos para abordar contenido de IA potencialmente perjudicial.

«La IA no crea fraude en las elecciones, pero debemos asegurarnos de que la IA no ayude a que el fraude se propague», dijo el presidente de Microsoft, Brad Smith, en un comunicado en la Conferencia de Seguridad de Múnich el viernes (16/2), según lo citado por CNN.

Las empresas tecnológicas generalmente tienen un historial pobre en cuanto a autorregulación y aplicación de sus propias políticas. Además, este nuevo acuerdo surge mientras los reguladores continúan rezagados en la creación de límites para las tecnologías de IA que avanzan rápidamente.

Varias herramientas de IA nuevas y en evolución ofrecen la capacidad de generar texto atractivo e imágenes realistas de manera rápida y fácil.

Además, un número creciente de videos y audios, según los expertos, pueden ser utilizados para diseminar información falsa y engañar a los votantes.

El anuncio de este acuerdo se produce después de que OpenAI lanzara una nueva herramienta de generación de contenido de texto a video altamente realista basada en IA llamada Sora el jueves (15/2).

«Mi mayor temor es que causemos un daño significativo – nosotros, nuestro campo, nuestra tecnología, nuestra industria – causando un daño significativo al mundo», dijo el CEO de OpenAI, Sam Altman, al Congreso de EE. UU. en una audiencia en mayo del año pasado, instando a los legisladores a regular la IA.

Además, algunas empresas se han asociado para desarrollar estándares de la industria para agregar metadatos a las imágenes generadas por IA, lo que permite que los sistemas de otras empresas detecten automáticamente que la imagen fue generada por IA.

Este nuevo acuerdo entre empresas tecnológicas avanza en estos esfuerzos interindustriales.

Específicamente, los firmantes se comprometen a colaborar en esfuerzos como encontrar formas de adjuntar señales legibles por máquina al contenido que indiquen su origen.

Además, están de acuerdo en evaluar sus modelos de IA para comprender el riesgo de producir contenido de IA engañoso relacionado con las elecciones.

Estas empresas también afirman que trabajarán juntas en campañas educativas para enseñar al público cómo protegerse de ser manipulado o engañado por este contenido.

Contenidos del Acuerdo

Según Microsoft, estos son los compromisos de las empresas tecnológicas en esta nueva colaboración propuesta:

  • Desarrollar e implementar tecnologías para mitigar los riesgos relacionados con el contenido engañoso de IA en las elecciones, incluidas herramientas de código abierto si es necesario.
  • Evaluar modelos incluidos en el alcance de este acuerdo para comprender los riesgos potenciales relacionados con el contenido engañoso de IA en las elecciones.
  • Esforzarse por detectar la distribución de este contenido en sus plataformas.
  • Esforzarse por manejar este contenido detectado en sus plataformas de manera apropiada.
  • Construir resistencia interindustrial contra el contenido engañoso de IA en las elecciones.
  • Proporcionar transparencia al público sobre cómo las empresas lo abordan.
  • Participar continuamente con varias organizaciones de la sociedad civil y académicos globales.
  • Apoyar esfuerzos para aumentar la conciencia pública, la alfabetización mediática y la resistencia en toda la sociedad.

Las empresas que han firmado este compromiso incluyen Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap, Stability AI, TikTok, TrendMicro, Truepic y X.