Microsoft informó el miércoles que detectó y perturbó casos de adversarios de Estados Unidos, principalmente Irán y Corea del Norte y en menor medida Rusia y China, utilizando o intentando explotar la inteligencia artificial generativa desarrollada por la empresa y su socio comercial para llevar a cabo investigaciones o acciones ofensivas cibernéticas.
Las técnicas observadas por Microsoft, en colaboración con su socio OpenAI, representan una amenaza emergente y no eran «particularmente novedosas ni únicas», según indicó la empresa con sede en Redmond, Washington, en una publicación de blog.
Pero el blog ofrece información sobre cómo las potencias geopolíticas de Estados Unidos han estado utilizando modelos de lenguaje grandes para ampliar su capacidad de penetrar redes y llevar a cabo operaciones de influencia de manera más efectiva.
Microsoft dijo que los «ataques» detectados involucraban todos los modelos de lenguaje grandes que poseen los socios, y que era importante exponerlos públicamente incluso si eran «movimientos incrementales en una etapa temprana».
Las firmas de ciberseguridad han utilizado durante mucho tiempo el aprendizaje automático en defensa, principalmente para detectar comportamientos anómalos en las redes. Pero los criminales y los hackers ofensivos también lo utilizan, y la introducción de modelos de lenguaje grandes liderados por ChatGPT de OpenAI aumentó ese juego del gato y el ratón.
Microsoft ha invertido miles de millones de dólares en OpenAI, y el anuncio del miércoles coincidió con la publicación de un informe que señala que se espera que la inteligencia artificial generativa mejore el ingenioso sabotaje social, lo que llevará a deepfakes y clonación de voz más sofisticados. Una amenaza para la democracia en un año en el que más de 50 países celebrarán elecciones, amplificando la desinformación que ya está ocurriendo.
A continuación, algunos ejemplos proporcionados por Microsoft. En cada caso, dijo que todas las cuentas y activos de IA generativos de los grupos nombrados fueron deshabilitados:
– El grupo de ciberespionaje norcoreano conocido como Kimsuky ha utilizado los modelos para investigar tanques de pensamiento extranjeros que estudian el país y generar contenido probablemente utilizado en campañas de hackeo de phishing dirigidas.
– La Guardia Revolucionaria de Irán ha utilizado modelos de lenguaje grandes para asistir en ingeniería social, en la solución de errores de software e incluso en el estudio de cómo los intrusos podrían evadir la detección en una red comprometida.
– La unidad de inteligencia militar rusa GRU conocida como Fancy Bear ha utilizado los modelos para investigar tecnologías satelitales y de radar que pueden estar relacionadas con la guerra en Ucrania.
– El grupo chino de ciberespionaje conocido como Aqua Panda ha interactuado con los modelos «de una manera que sugiere una exploración limitada de cómo los LLM pueden mejorar sus operaciones técnicas».
– El grupo chino Maverick Panda, que ha atacado a contratistas de defensa de Estados Unidos entre otros sectores durante más de una década, tuvo interacciones con los modelos de lenguaje grandes que sugieren que estaban evaluando su efectividad como fuente de información sobre temas potencialmente sensibles, individuos de alto perfil, geopolítica regional, influencia de Estados Unidos y asuntos internos.
En un blog separado publicado el miércoles, OpenAI dijo que las técnicas descubiertas eran consistentes con evaluaciones anteriores que encontraron que su modelo de chatbot actual GPT-4 ofrece «sólo capacidades limitadas y cada vez mayores para tareas maliciosas de ciberseguridad más allá de lo que ya es posible con herramientas públicamente disponibles y sin IA».
En abril pasado, la directora de la Agencia de Ciberseguridad e Infraestructura de Estados Unidos, Jen Easterly, le dijo al Congreso que «hay dos amenazas y desafíos que definen épocas. China es una, y la inteligencia artificial es la otra».
Easterly dijo en ese momento que Estados Unidos necesita asegurarse de que la IA se construya teniendo en cuenta la seguridad.
Críticos del lanzamiento público de ChatGPT en noviembre de 2022, y de los lanzamientos posteriores de competidores como Google y Meta, arguyen que fue irresponsablemente apresurado, considerando que la seguridad fue en gran medida una ocurrencia tardía en su desarrollo.
«Por supuesto, los actores malintencionados están utilizando modelos de lenguaje grandes: esa decisión se tomó cuando se abrió la Caja de Pandora», dijo Amit Yoran, CEO de la empresa de ciberseguridad Tenable.
Algunos profesionales de la ciberseguridad se quejan de la creación y promoción por parte de Microsoft de herramientas para abordar las vulnerabilidades en modelos de lenguaje grandes cuando sería más responsable centrarse en hacerlos más seguros.
«¿Por qué no crear modelos base de caja negra más seguros en lugar de vender herramientas defensivas para un problema que están ayudando a crear?» preguntó Gary McGraw, un veterano de la seguridad informática y cofundador del Berryville Institute of Machine Learning.
Edward Amoroso, profesor de la NYU y exdirector de seguridad de AT&T, dijo que si bien el uso de IA y modelos de lenguaje grandes puede no representar una amenaza inmediatamente evidente, «eventualmente se convertirá en una de las armas más poderosas en la ofensiva militar de todos los estados nacionales».
Suscríbete al boletín Eye on AI para mantenerse al tanto de cómo la IA está modelando el futuro de los negocios. Inscríbete gratis.