La FCC busca ilegalizar las llamadas automáticas con inteligencia artificial (IA) y ha alertado sobre una creciente ola de estafas mediante la tecnología de clonación de voz.
El jueves, Jessica Rosenworcel, jefa del organismo regulador de comunicaciones de Estados Unidos, afirmó que el software de aprendizaje automático podría potencialmente persuadir a las personas para que realicen acciones como donar dinero a causas fraudulentas.
Es una cosa que los humanos engañen a otros humanos, pero otra muy distinta es que las computadoras imiten a celebridades y otros mientras llaman a las personas a una escala industrial para estafarlas con señuelos convincentes.
El mes pasado, los residentes de New Hampshire recibieron una llamada falsa imitando la voz del presidente Joe Biden, instándolos a no votar en las elecciones primarias presidenciales del estado en un intento por perturbar los resultados.
«La clonación de voz e imágenes generadas por IA ya está sembrando confusión al engañar a los consumidores haciéndoles creer que las estafas son legítimas. No importa qué celebridad o político prefiera, o cuál sea su relación con sus seres queridos cuando llaman en busca de ayuda, es posible que todos seamos objetivos de estas llamadas falsas», dijo Rosenworcel esta semana.
«Por eso la FCC está tomando medidas para reconocer esta tecnología emergente como ilegal bajo la ley existente, brindando a nuestros socios en las oficinas de los fiscales generales estatales en todo el país nuevas herramientas que pueden utilizar para combatir estas estafas y proteger a los consumidores».
La agencia cree que el uso de la tecnología de clonación de voz de IA en estafas de llamadas automáticas debería ser penalizado bajo la Ley de Protección al Consumidor de Telecomunicaciones de 1991. Las leyes actuales requieren que los telemercadeadores tengan el consentimiento explícito de los consumidores antes de realizar llamadas automatizadas utilizando «una voz artificial o pregrabada». Rosenworcel sostiene que las mismas reglas deberían aplicarse también a las llamadas automáticas generadas por IA.
Los legisladores también buscan abordar el problema. El representante de la Cámara, Frank Pallone, Jr. (D-NJ), presentó esta semana un proyecto de ley llamado «Ley No Molestar», que requeriría que los telemercadeadores divulguen si se ha utilizado IA para crear automáticamente un mensaje utilizado en un mensaje de texto o llamada telefónica.
Se impondrían sanciones si los telemercadeadores se hacen pasar por otra persona. Pallone afirmó que su proyecto de ley cierra lagunas y amplía las reglas de llamadas automáticas para abarcar mensajes de texto y el uso de IA.
Los funcionarios gubernamentales en todo Estados Unidos respaldan las ideas de la FCC. El mes pasado, la fiscal general de Pensilvania, Michelle Henry, escribió una carta [PDF] a la FCC y dijo que las voces generadas por IA deberían ser clasificadas como voces artificiales, lo que significa que la Ley de Protección al Consumidor de Telecomunicaciones debería proteger contra las estafas de llamadas automáticas utilizando tecnologías de clonación de voz. La carta fue firmada por 25 fiscales generales de otros estados.
«La tecnología avanza y se expande, aparentemente, minuto a minuto, y debemos asegurarnos de que estos nuevos desarrollos no se utilicen para acechar, engañar o manipular a los consumidores», dijo Henry.
«Esta nueva tecnología no puede usarse como un vacío legal para abrumar a los consumidores con llamadas ilegales. Felicito a los socios de esta coalición bipartidista por ver el daño potencial que la IA puede causar a los consumidores que ya están abrumados por llamadas automáticas y comunicaciones por texto».