Estafas impulsadas por inteligencia artificial y qué puedes hacer al respecto

La inteligencia artificial (IA) está aquí para ayudar, ya sea redactando un correo electrónico, creando arte conceptual o llevando a cabo estafas a personas vulnerables haciéndoles creer que eres un amigo o familiar en apuros. ¡La IA es tan versátil! Pero, dado que algunas personas preferirían no ser estafadas, hablemos un poco sobre qué debemos tener en cuenta.

En los últimos años, hemos visto un gran aumento no solo en la calidad de los medios generados, desde texto hasta audio, imágenes y video, sino también en lo barato y fácil que puede ser crear ese contenido. La misma herramienta que ayuda a un artista conceptual a crear monstruos o naves espaciales de fantasía, o que permite a un hablante no nativo mejorar su inglés empresarial, también puede ser utilizada de manera maliciosa.

No esperes que Terminator llame a tu puerta para venderte una estafa tipo Ponzi; estas son las mismas viejas estafas a las que nos hemos enfrentado durante años, pero con un toque de IA generativa que las hace más fáciles, baratas o convincentes.

Esto no es ni mucho menos una lista completa, solo algunos de los trucos más obvios que la IA puede potenciar. Estaremos atentos para agregar nuevos trucos a medida que aparezcan en la naturaleza, o cualquier paso adicional que puedas tomar para protegerte.

### Clonación de voz de familiares y amigos

Las voces sintéticas han existido durante décadas, pero solo en el último año o dos los avances tecnológicos han permitido generar una nueva voz a partir de tan solo unos segundos de audio. Esto significa que cualquier persona cuya voz haya sido transmitida públicamente, por ejemplo, en un reportaje de noticias, video de YouTube o en redes sociales, es vulnerable a que clonen su voz.

Los estafadores pueden y han usado esta tecnología para producir versiones falsas convincentes de seres queridos o amigos. Estas pueden ser hechas para decir cualquier cosa, pero en servicio de una estafa, es más probable que hagan una grabación de voz pidiendo ayuda.

Por ejemplo, un padre podría recibir un correo de voz de un número desconocido que suena como su hijo, diciendo que le robaron cosas mientras viajaba, una persona le prestó su teléfono, y que mamá o papá podrían enviar algo de dinero a esta dirección, receptor de Venmo, negocio, etc. Uno puede imaginar fácilmente variantes con problemas de automóvil («no me liberarán el auto hasta que alguien les pague»), problemas médicos («este tratamiento no está cubierto por el seguro»), y así sucesivamente.

Este tipo de estafa ya se ha hecho utilizando la voz del Presidente Biden. Atraparon a los culpables detrás de eso, pero los futuros estafadores serán más cuidadosos.

¿Cómo puedes defenderte contra la clonación de voz?

Primero, no te molestes en tratar de detectar una voz falsa. Se están volviendo mejores cada día, y hay muchas maneras de disfrazar cualquier problema de calidad. Incluso los expertos son engañados.

Cualquier cosa proveniente de un número desconocido, dirección de correo electrónico o cuenta debe considerarse automáticamente sospechosa. Si alguien dice ser tu amigo o ser querido, adelante y contacta a la persona de la manera habitual. Probablemente te dirán que están bien y que es (como sospechaste) una estafa.

Los estafadores tienden a no hacer seguimiento si son ignorados, mientras que un miembro de la familia probablemente lo hará. Está bien dejar un mensaje sospechoso en visto mientras lo consideras.

### Phishing personalizado y spam a través de correo electrónico y mensajería

Todos recibimos spam de vez en cuando, pero la IA generadora de texto está haciendo posible enviar correos electrónicos masivos personalizados a cada individuo. Con las violaciones de datos ocurriendo regularmente, muchos de tus datos personales están disponibles en línea.

Es una cosa recibir uno de esos correos electrónicos de estafa de «¡Haz clic aquí para ver tu factura!» con adjuntos obviamente alarmantes que parecen tan poco esfuerzo. Pero con un poco de contexto, de repente se vuelven bastante creíbles, utilizando ubicaciones recientes, compras y hábitos para hacer que parezca como si fuera una persona real o un problema real. Armada con unos pocos datos personales, un modelo de lenguaje puede personalizar un correo electrónico genérico de estos a miles de destinatarios en cuestión de segundos.

Entonces, lo que solía ser «Estimado cliente, por favor encuentre su factura adjunta» se convierte en algo como «Hola Doris, ¡estoy con el equipo de promociones de Etsy. Un artículo que estabas mirando recientemente está ahora con un 50% de descuento! Y el envío a tu dirección en Bellingham es gratuito si usas este enlace para reclamar el descuento». Un ejemplo sencillo, pero aún así. Con un nombre real, hábitos de compra (fácil de descubrir), ubicación general y demás, de repente el mensaje es mucho menos obvio.

En última instancia, estos siguen siendo solo spam. Pero este tipo de spam personalizado solía tener que ser hecho por personas mal pagadas en granjas de contenido en países extranjeros. Ahora se puede hacer a gran escala por un modelo de lenguaje con mejores habilidades de prosa que muchos escritores profesionales.

¿Cómo puedes defenderte contra el spam por correo electrónico?

Como con el spam tradicional, la vigilancia es tu mejor arma. Pero no esperes detectar texto generado de texto escrito por humanos en la naturaleza. Son pocos los que pueden, y ciertamente no otro modelo de IA.

Por más mejorado que sea el texto, este tipo de estafa aún tiene el desafío fundamental de lograr que abras archivos adjuntos o enlaces sospechosos. Como siempre, a menos que estés 100% seguro de la autenticidad e identidad del remitente, no hagas clic ni abras nada. Si tienes aunque sea un mínimo de dudas, y este es un buen sentido a cultivar, no hagas clic, y si tienes a alguien conocedor a quien reenviárselo para una segunda opinión, hazlo.

### Fraude de identificación y verificación ‘falsa tú’

Debido al número de violaciones de datos en los últimos años, es seguro decir que casi todos tenemos una cantidad considerable de datos personales circulando en la web oscura. Si sigues buenas prácticas de seguridad en línea, gran parte del peligro se mitiga porque cambiaste tus contraseñas, activaste la autenticación de dos factores, y así sucesivamente. Pero la IA generativa podría presentar una nueva y seria amenaza en esta área.

Con tanta información sobre alguien disponible en línea y para muchos, incluso un clip o dos de su voz, es cada vez más fácil crear una persona IA que suene como la persona objetivo y tenga acceso a gran parte de los datos utilizados para verificar la identidad.

Piénsalo de esta manera. Si tuvieras problemas para iniciar sesión, no pudieras configurar tu aplicación de autenticación correcta o perdiste tu teléfono, ¿qué harías? Probablemente llamarías al servicio al cliente, y ellos «verificarían» tu identidad usando algunos datos triviales como tu fecha de nacimiento, número de teléfono o número de seguro social. Incluso los métodos más avanzados como «tomarse una selfie» son cada vez más fáciles de manipular.

El agente de servicio al cliente, que bien podríamos asumir que también es una IA, muy probablemente atendería a este falso tú y le otorgaría todos los privilegios que tendrías si realmente llamaras. Lo que pueden hacer desde esa posición varía ampliamente, pero nada de eso es bueno.

Como los otros en esta lista, el peligro no es tanto qué tan realista sería este falso tú, sino que es fácil para los estafadores realizar este tipo de ataques amplia y repetidamente. Hace poco, este tipo de ataque de suplantación de identidad era costoso y llevaba tiempo, y como consecuencia estaría limitado a objetivos de alto valor como personas ricas y directores ejecutivos. Hoy en día podrías construir un flujo de trabajo que cree miles de agentes de suplantación con supervisión mínima, y estos agentes podrían llamar automáticamente a los números de servicio al cliente de todas las cuentas conocidas de una persona, o incluso crear nuevas. Solo una cantidad mínima necesita tener éxito para justificar el costo del ataque.

¿Cómo puedes defenderte contra el fraude de identidad?

Al igual que antes de que las IA vinieran a reforzar los esfuerzos de los estafadores, «Ciberseguridad 101» es tu mejor apuesta. Tus datos ya están ahí fuera; no puedes meter la pasta de dientes de nuevo en el tubo. Pero puedes asegurarte de que tus cuentas estén adecuadamente protegidas contra los ataques más obvios.

La autenticación de dos factores es fácilmente el paso más importante que cualquiera puede tomar aquí. Cualquier tipo de actividad seria en la cuenta llega directamente a tu teléfono, y los intentos de inicio de sesión sospechosos o cambios de contraseña aparecerán en el correo electrónico. No descuides estas advertencias o las marques como spam, incluso (especialmente) si estás recibiendo muchas.

### Deepfakes generados por IA y chantaje

Quizás la forma más aterradora de estafa de IA incipiente es la posibilidad de chantaje utilizando imágenes deepfake de ti o de un ser querido. Puedes agradecer al mundo en rápido movimiento de los modelos de imagen abiertos por esta perspectiva futurista y aterradora. Personas interesadas en ciertos aspectos de la generación de imágenes de vanguardia han creado flujos de trabajo no solo para representar cuerpos desnudos, sino para adjuntarlos a cualquier rostro del que puedan obtener una imagen. No necesito entrar en detalles sobre cómo ya se está utilizando.

Pero una consecuencia no deseada es una extensión de la estafa comúnmente llamada «porno vengativo», pero descrita más precisamente como distribución no consensuada de imágenes íntimas (aunque, al igual que «deepfake», puede ser difícil reemplazar el término original). Cuando las imágenes privadas de alguien se filtran ya sea a través de hackeos o de un ex vengativo, pueden ser utilizadas como chantaje por un tercero que amenaza con publicarlas ampliamente a menos que se pague una suma.

La IA mejora esta estafa al hacer que no sea necesario que las imágenes íntimas reales existan en primer lugar. La cara de cualquier persona puede ser agregada a un cuerpo generado por IA, y si bien los resultados no siempre son convincentes, probablemente sean suficientes para engañarte a ti u a otros si están pixelados, de baja resolución o de alguna manera parcialmente oscurecidos. Y eso es todo lo que se necesita para asustar a alguien a pagar para mantenerlas en secreto, aunque, como la mayoría de las estafas de chantaje, el primer pago es poco probable que sea el último.

¿Cómo puedes luchar contra los deepfakes generados por IA?

Desafortunadamente, el mundo hacia el que nos estamos moviendo es uno donde imágenes falsas desnudas de casi cualquier persona estarán disponibles a pedido. Es aterrador, extraño y asqueroso, pero lamentablemente el gato ya salió de la bolsa aquí.

Nadie está contento con esta situación excepto los malos. Pero hay un par de cosas a favor de las posibles víctimas. Estos modelos de imagen pueden producir cuerpos realistas de ciertas maneras, pero al igual que otra IA generativa, solo saben lo que han sido entrenados. Entonces, las imágenes falsas carecerán de cualquier marca distintiva, por ejemplo, y probablemente serán obviamente incorrectas en otros aspectos.

Y aunque la amenaza probablemente nunca se reducirá completamente, hay cada vez más recursos para las víctimas, quienes pueden exigir legalmente a los anfitriones de imágenes que eliminen las fotos, o prohibir a los estafadores de sitios donde publiquen. A medida que el problema crezca, también lo harán los medios legales y privados para combatirlo.

TechCrunch no es un bufete de abogados. Pero si eres víctima de esto, informa a la policía. No es solo una estafa, sino acoso, y aunque no puedes esperar que la policía haga el tipo de trabajo de detective profundo en internet necesario para rastrear a alguien, estos casos a veces se resuelven, o los estafadores se asustan por las solicitudes enviadas a su ISP o anfitrión del foro.

Al final, la clave para protegerse de estas estafas digitales es mantenerse informado, ser consciente de lo que compartes en línea y ser escéptico ante cualquier comunicación inesperada. Con la rapidísima evolución de la tecnología, es crucial estar alerta y tomar las medidas necesarias para proteger tu identidad y seguridad en línea. ¡No caigas en las trampas de los estafadores digitales! ¡Mantente seguro y protegido en el mundo virtual!