La Comisión Federal de Comercio (FTC) está ofreciendo una recompensa de $25,000 al mejor enfoque para combatir la creciente amenaza de la clonación de voz mediante IA.
A veces conocido como «audio deepfakes», el número de servicios en línea que ofrecen instalaciones de clonación de voz de fácil uso ha proliferado desde que la IA generativa se volvió popular, generando preocupaciones sobre su potencial para abusos en ciberataques.
Por ejemplo, una amenaza generalizada podría implicar el suplantamiento de voces de CEOs para hacerse pasar por ellos e instruir al departamento financiero a transferir dinero a la cuenta de un atacante. También se podría engañar a amigos y familiares para que envíen dinero a sus seres queridos, y los artistas intérpretes o ejecutantes podrían ver amenazadas sus carreras si la tecnología continúa desarrollándose.
Las partes interesadas tienen hasta el 12 de enero para enviar sus ideas que ayuden a abordar el fraude de clonación de voz basado en IA, centrándose principalmente en la prevención, monitoreo y evaluación de la tecnología.
«Este esfuerzo puede ayudar a impulsar ideas para mitigar riesgos aguas arriba, protegiendo a los consumidores, profesionales creativos y pequeñas empresas contra los perjuicios de la clonación de voz antes de que el daño llegue al consumidor», dijo la FTC.
«También puede ayudar a avanzar ideas para mitigar riesgos a nivel del consumidor. Y si no surgen ideas viables, esto enviará una advertencia crítica y temprana a los responsables de las políticas de que deberían considerar límites más estrictos en el uso de esta tecnología, dada la dificultad para prevenir el desarrollo perjudicial de aplicaciones en el mercado».
Las presentaciones se evaluarán según su viabilidad para ejecutarse y administrarse, su resistencia a los cambios tecnológicos y cómo consideran de manera reflexiva la responsabilidad y la responsabilidad de las empresas, entre otras medidas.
El premio principal ofrecido es de $25,000, lo cual no suena como una mina de oro teniendo en cuenta las posibles aplicaciones amplias que una solución ingeniosa pueda tener.
Un finalista recibirá $4,000, tres menciones honoríficas serán recompensadas con $2,000 cada una por sus esfuerzos, y las organizaciones de 10 o más personas recibirán un reconocimiento sin efectivo.
Abuso de voz mediante IA en acción
La efectividad de la clonación de voz mediante IA se ha demostrado en casos repetidos durante el último año. Expertos de la tienda de seguridad eslovaca ESET mostraron cómo se puede llevar a cabo el ejemplo mencionado anteriormente de suplantación de voces de CEOs.
De hecho, ha sido un problema durante años antes de que la IA generativa llegara a manos de la persona promedio. Una empresa energética del Reino Unido fue despojada de $243,000 en 2019 después de que su CEO recibiera instrucciones de enviar una gran suma a un proveedor húngaro.
Un informe del New York Times, también de los últimos 12 meses, detalló una variedad de casos que tuvieron éxito al atacar al sector financiero, engañando a los bancos para que movieran dinero de quienes creían que eran clientes legítimos. El Reg también ha informado sobre ataques similares que tuvieron lugar en los Emiratos Árabes Unidos desde 2021.
Las estafas románticas también son frecuentes, con un británico que cayó en la trampa de un Kevin Costner falsificado, y los criminales también han demostrado que no dudarán en llevar a cabo estafas de «emergencia familiar», que se dirigen a padres con las voces clonadas de sus hijos solicitando dinero para pagar una fianza, por ejemplo.
Especialmente siniestros son los casos en los que las madres reciben llamadas supuestamente de sus hijas retenidas por «secuestradores» que exigen grandes rescates.
La clonación de voz es posible alimentando a un modelo de IA suficientes datos de entrenamiento para comprender el sonido, tono, ritmo, inflexión y otras sutilezas de la voz de un individuo. Se cree que las celebridades y otras figuras públicas están en riesgo agudo de estos ataques dada la cantidad de grabaciones de sus voces que existen en línea.
Con el auge de las redes sociales y la cultura de creación de contenido en video, muchas personas no famosas e incluso niños también tienen suficiente material en línea para entrenar efectivamente un modelo.
Los investigadores de Kaspersky examinaron el aumento en la clonación de voz mediante IA el año pasado y descubrieron una amplia variedad de herramientas de código abierto de acceso gratuito que podían generar voces clonadas mediante tecnología de IA. Sin embargo, sostuvieron que para lograr un clon convincente, se requería cierto conocimiento de Python y algunos ajustes por parte del clonador.
Sin embargo, las ofertas pagas tienden a ser mucho más efectivas. Los investigadores señalaron el modelo VALL-E de Microsoft, que supuestamente podría generar un clon decente con solo tres segundos de audio de voz utilizado como datos de entrenamiento.
También hay otras soluciones pagas que funcionan mejor que las gratuitas, pero estas aún están en las primeras etapas de desarrollo, por lo que podemos esperar que la precisión y efectividad de estos modelos mejoren con el tiempo.