Google presentó ayer en su conferencia I/O una característica que utiliza su tecnología de inteligencia artificial generativa para escanear llamadas en tiempo real en busca de patrones conversacionales asociados con estafas financieras, lo cual ha generado preocupación entre expertos en privacidad y seguridad. Advierten que una vez que se integre el escaneo del lado del cliente en la infraestructura móvil, podría abrir la puerta a una era de censura centralizada.
La demostración de Google de la función de detección de estafas telefónicas, que la empresa tecnológica dijo que se integrará en una futura versión de su sistema operativo Android, estimado para ejecutarse en aproximadamente tres cuartos de los teléfonos inteligentes del mundo, está impulsada por Gemini Nano, el modelo más pequeño de sus generaciones actuales de modelos de inteligencia artificial diseñados para funcionar completamente en el dispositivo.
Esto es esencialmente escaneo del lado del cliente: una tecnología incipiente que ha generado una gran controversia en los últimos años en relación a los esfuerzos para detectar material de abuso sexual infantil o incluso actividades de acercamiento en plataformas de mensajería.
Apple abandonó un plan para implementar el escaneo del lado del cliente para material de abuso sexual infantil en el 2021 después de una gran reacción en contra de la privacidad. Sin embargo, los formuladores de políticas continúan presionando a la industria tecnológica para encontrar formas de detectar actividades ilegales en sus plataformas. Cualquier movimiento de la industria para desarrollar una infraestructura de escaneo en el dispositivo podría allanar el camino para todo tipo de escaneo de contenido por defecto, ya sea dirigido por el gobierno o relacionado con una agenda comercial específica.
Expertos en criptografía como Matthew Green, profesor en Johns Hopkins, advierten que en el futuro, los modelos de IA ejecutarán inferencias en tus mensajes de texto y llamadas para detectar y reportar comportamientos ilícitos. Esto plantea serias dudas sobre la privacidad y la libertad individual.
El uso de tecnología de inteligencia artificial para escanear y controlar las comunicaciones de las sociedades plantea riesgos significativos y es un tema de gran preocupación para la privacidad y la libertad individual. La capacidad técnica ya existe, y es importante reflexionar sobre cómo gobernar y regular estas herramientas para evitar abusos.
Los expertos europeos en privacidad y seguridad también expresaron sus objeciones a la demostración de Google. Lukasz Olejnik, un investigador independiente y consultor de Polonia, apreció la función contra estafas de Google pero advirtió que la infraestructura podría ser reutilizada para la vigilancia social.
La preocupación por la función de escaneo de conversaciones de Google refleja los riesgos futuros potenciales relacionados con el uso de la inteligencia artificial para controlar el comportamiento de las sociedades.
Google fue contactado para responder a las preocupaciones sobre si su IA de escaneo de conversaciones podría erosionar la privacidad de las personas, pero hasta el momento de la publicación no había respondido.