Los deepfakes de audio son más baratos de producir que los de video y pueden ser más difíciles de desacreditar. Ya ha habido varios casos de intentos de interferencia en elecciones en todo el mundo.
A medida que los deepfakes de IA causan estragos en otras elecciones, los expertos advierten que los políticos del Reino Unido deben estar preparados.
«Solo dime qué desayunaste», dice Mike Narouei, de ControlAI, grabando en su laptop. Hablo durante unos 15 segundos, sobre mi tostada, café y el viaje a sus oficinas.
En cuestión de segundos, escucho mi propia voz, diciendo algo completamente diferente.
Sigue las últimas actualizaciones sobre las elecciones.
En este caso, palabras que he escrito: «Los deepfakes pueden ser extremadamente realistas y tienen la capacidad de perturbar nuestra política y dañar nuestra confianza en el proceso democrático».
Hemos usado software gratuito, no ha requerido habilidades técnicas avanzadas y todo ha llevado casi nada de tiempo.
Este es un deepfake de audio: los de video requieren más esfuerzo para producirse, y además de ser utilizados por estafadores de todo tipo, hay una profunda preocupación, en un año en el que alrededor de dos mil millones de personas irán a las urnas, en EE.UU., India y docenas de otros países, incluido el Reino Unido, sobre su impacto en las elecciones.
Sir Keir Starmer fue víctima de uno en la conferencia del Partido Laborista del año pasado, supuestamente de él insultando al personal. Rápidamente se demostró que era falso. Nunca se ha descubierto la identidad de quien lo hizo.
El alcalde de Londres, Sadiq Khan, también fue atacado este año, con un audio falso de él haciendo comentarios incendiarios sobre el fin de semana de la Remembranza y llamando a marchas pro-Palestina, que se hizo viral en un momento tenso para las comunidades. Él reclamó nuevas leyes para detenerlos.
Ciaran Martin, el exdirector del Centro Nacional de Seguridad Cibernética del Reino Unido, dijo a Sky News que los deepfakes de video caros pueden ser menos efectivos y más fáciles de desacreditar que los de audio.
«En este momento me preocupa particularmente el audio, porque los deepfakes de audio son espectacularmente fáciles de hacer, inquietantemente fáciles», dijo. «Y si se despliegan de manera inteligente, pueden tener un impacto».
Los que han sido más dañinos, en su opinión, son un deepfake de audio del presidente Biden, enviado a los votantes durante las primarias de New Hampshire en enero de este año.
Una «llamada automática» con la voz del presidente dijo a los votantes que se quedaran en casa y «guardaran» sus votos para las elecciones presidenciales en noviembre. Un consultor político asumió la responsabilidad más tarde y ha sido acusado y multado con $6 millones (£4.7 millones).
Martin, ahora profesor en la Escuela de Gobierno Blavatnik de la Universidad de Oxford, dijo: «Era una imitación muy creíble de su voz y la evidencia anecdótica sugiere que algunas personas fueron engañadas por eso.
«No solo porque no era un correo electrónico que podían reenviar a alguien más para que lo revisara, o en la televisión donde muchas personas estaban viendo. Era una llamada a su hogar que más o menos tenían que juzgar solos.
«El audio dirigido, en particular, es probablemente la mayor amenaza en este momento, y no hay una solución general, no hay un botón que puedas simplemente presionar y hacer que este problema desaparezca si estás dispuesto a pagar por ello o aprobar las leyes adecuadas.
«Lo que necesitas, y EE.UU. lo hizo muy bien en 2020, es una serie de ojos y oídos responsables y bien informados en diferentes partes del sistema electoral para limitar y mitigar el daño».
Él dice que existe el riesgo de exagerar la amenaza de los deepfakes, cuando aún no han causado un daño electoral masivo.
Una transmisión falsa hecha por Rusia en la televisión ucraniana, dijo, que presentaba a un funcionario ucraniano asumiendo la responsabilidad de un ataque terrorista en Moscú, simplemente «no fue creída», a pesar de haber sido producida con altos costos.
El gobierno del Reino Unido ha aprobado una Ley de Seguridad Nacional con nuevos delitos de interferencia extranjera en los procesos democráticos del país.
La Ley de Seguridad en Línea requiere que las empresas tecnológicas eliminen dicho contenido, y se están llevando a cabo reuniones regularmente con las empresas de redes sociales durante el período preelectoral.
Los defensores de la democracia están preocupados de que los deepfakes puedan ser utilizados no solo por actores extranjeros hostiles o individuos solitarios que quieran interrumpir el proceso, sino por los propios partidos políticos.
Polly Curtis, directora ejecutiva del think tank Demos, que ha pedido a los partidos que acuerden un conjunto de directrices para el uso de IA, dijo: «El riesgo es que tendrás actores extranjeros, tendrás partidos políticos, tendrás gente común en la calle creando contenido y simplemente revolviendo la olla de lo que es verdad y lo que no lo es.
«Queremos que se reúnan y acuerden juntos cómo van a usar estas herramientas en las elecciones. Queremos que acuerden no crear IA generativa ni amplificarla, y etiquetarla cuando se use.
«Esta tecnología es tan nueva, y hay tantas elecciones en marcha, que podría haber un gran evento de desinformación en una campaña electoral que empiece a afectar la confianza de las personas en la información que tienen».
Los deepfakes ya han sido dirigidos a elecciones importantes.
El año pasado, pocas horas antes de que cerraran las urnas en las elecciones presidenciales de Eslovaquia, un audio falso de uno de los candidatos afirmando haber amañado la elección se hizo viral. Fue derrotado rotundamente y su oponente prorruso ganó.
El gobierno del Reino Unido estableció una Unidad Conjunta de Preparación para la Seguridad Electoral a principios de este año, con funcionarios de Whitehall trabajando con la policía y las agencias de seguridad, para responder a las amenazas a medida que surgen.
Un portavoz del gobierno del Reino Unido dijo: «La seguridad es primordial y estamos bien preparados para garantizar la integridad de las elecciones con sistemas robustos para protegernos contra cualquier posible interferencia.
«La Ley de Seguridad Nacional contiene herramientas para abordar las amenazas de deepfakes en las elecciones y las plataformas de redes sociales también deberían tomar medidas proactivas contra el contenido patrocinado por estados que buscan interferir en las elecciones».
Un portavoz laborista dijo: «Nuestra democracia es fuerte y no podemos ni permitiremos ningún intento de socavar la integridad de nuestras elecciones.
«Sin embargo, el rápido ritmo de la tecnología de IA significa que el gobierno debe estar siempre un paso por delante de los actores malignos que intentan utilizar deepfakes y desinformación para socavar la confianza en nuestro sistema democrático.
«El Partido Laborista será implacable en contrarrestar estas amenazas».