El Parlamento Europeo ha aprobado el primer marco integral del mundo para restringir los riesgos de la inteligencia artificial (IA).
El sector ha experimentado un crecimiento explosivo, impulsando enormes ganancias pero también avivando temores sobre sesgos, privacidad e incluso el futuro de la humanidad.
La Ley de IA funciona clasificando los productos según el riesgo y ajustando la escrutinio en consecuencia.
Los creadores de la ley dijeron que haría que la tecnología fuera más «centrada en el ser humano».
«La ley de IA no es el final del viaje sino el punto de partida para una nueva gobernanza construida en torno a la tecnología», agregó el MEP Dragos Tudorache.
También coloca a la UE a la vanguardia de los intentos globales de abordar los peligros asociados con la IA.
China ya ha introducido un conjunto de leyes de IA. En octubre de 2023, el presidente de Estados Unidos, Joe Biden, anunció una orden ejecutiva que requería que los desarrolladores de IA compartieran datos con el gobierno.
Pero la UE ahora ha ido más allá.
«La adopción de la Ley de IA marca el comienzo de una nueva era de IA y su importancia no puede ser exagerada», dijo Enza Iannopollo, analista principal de Forrester.
«La Ley de IA de la UE es el primer y único conjunto de requisitos vinculantes para mitigar los riesgos de la IA en el mundo», agregó.
Dijo que haría que la UE fuera el estándar global «de facto» para la IA confiable, dejando a todas las demás regiones, incluido el Reino Unido, a «ponerse al día».
En noviembre de 2023, el Reino Unido organizó una cumbre de seguridad de IA pero no está planeando legislación similar a la Ley de IA.
Cómo funcionará la Ley de IA La idea principal de la ley es regular la IA en función de su capacidad para causar daño a la sociedad. Cuanto mayor sea el riesgo, más estrictas serán las reglas.
Las aplicaciones de IA que representen un «riesgo claro para los derechos fundamentales» estarán prohibidas, por ejemplo, algunas de aquellas que involucren el procesamiento de datos biométricos.
Los sistemas de IA considerados «de alto riesgo», como los utilizados en infraestructuras críticas, educación, atención médica, aplicación de la ley, gestión de fronteras o elecciones, deberán cumplir con requisitos estrictos.
Los servicios de bajo riesgo, como los filtros de spam, enfrentarán la regulación más liviana: la UE espera que la mayoría de los servicios caigan en esta categoría.
La Ley también crea disposiciones para abordar los riesgos planteados por los sistemas que sustentan herramientas de IA generativas y chatbots como ChatGPT de OpenAI.
Estos requerirían que los productores de algunos sistemas de IA de propósito general, que pueden ser aprovechados para una variedad de tareas, sean transparentes sobre el material utilizado para entrenar sus modelos y cumplan con la ley de derechos de autor de la UE.
El Sr. Turodache dijo a los periodistas antes de la votación que las disposiciones de derechos de autor habían sido una de las partes «más presionadas» del proyecto de ley.
OpenAI, Stability AI y el gigante de los chips gráficos Nvidia están entre un puñado de empresas de IA que enfrentan demandas por su uso de datos para entrenar modelos generativos.
Algunos artistas, escritores y músicos han argumentado que el proceso de «scraping» grandes volúmenes de datos, incluidos potencialmente sus propias obras, de prácticamente todos los rincones de Internet viola las leyes de derechos de autor.
La Ley aún debe pasar varios pasos más antes de convertirse formalmente en ley.
Los lingüistas jurídicos, cuyo trabajo es revisar y traducir leyes, examinarán su texto y el Consejo Europeo – compuesto por representantes de los estados miembros de la UE – también necesitará respaldarlo, aunque se espera que sea una formalidad.
Mientras tanto, las empresas estarán trabajando para cumplir con la legislación.
Kirsten Rulf, exasesora del gobierno alemán y ahora socia de Boston Consulting Group, dice que más de 300 empresas se han puesto en contacto con su empresa hasta ahora.
«Quieren saber cómo escalar la tecnología y obtener valor de la IA», dijo a la BBC.
«Las empresas necesitan y quieren la certeza legal».