La seguridad es lo primero: California regulará el entrenamiento de IA

La seguridad es lo primero: California regulará el entrenamiento de IA

Los dilemas éticos que plantea el uso de la inteligencia artificial (IA) podrían ser infinitos sin un marco legal que los regule. En una iniciativa pionera, California ha dado el primer paso al convertirse en el primer estado de EE. UU. en aprobar una legislación que regule el entrenamiento de modelos de IA a gran escala.

El proyecto de ley, conocido como SB 1047 o Ley de Innovación Segura para Modelos Fronterizos de IA, describe una serie de requisitos para las empresas que desarrollan y entrenan estos modelos. Como era de esperar, la medida ha suscitado debates entre las empresas a las que afecta.

La IA no escapa a la ley
Los partidarios del proyecto de ley argumentan que su objetivo es servir como «salvaguarda para proteger a la sociedad» del mal uso de la IA. Algunas de las disposiciones clave de la nueva ley incluyen:

Desactivación de emergencia: las empresas deben garantizar que sea posible desactivar rápida y completamente un modelo de IA si se considera inseguro. Protección contra modificaciones inseguras: los modelos de lenguaje deben protegerse contra «modificaciones inseguras posteriores al entrenamiento» o cualquier alteración que pueda causar «daños críticos».
Sin embargo, varios expertos han expresado su preocupación por que estas nuevas regulaciones puedan sofocar la innovación y dificultar el funcionamiento de los desarrolladores independientes. Los desarrolladores más pequeños y las empresas como OpenAI se preocupan por los desafíos que podrían enfrentar para cumplir con todos los requisitos de la ley y las sanciones por incumplimiento.

Por otro lado, el profesor Geoffrey Hinton, exjefe de IA en Google, elogió el proyecto de ley y afirmó que los riesgos que plantean los potentes sistemas de IA son «muy reales y deben tomarse muy en serio», según los informes de 9to5mac.

Naturalmente, Apple ha mostrado un interés significativo en estas regulaciones, ya que la empresa está desarrollando activamente funciones de Apple Intelligence programadas para su lanzamiento público este otoño con las actualizaciones de iOS 18.1 y macOS Sequoia 15.1. Algunas de estas funcionalidades ya están disponibles en la versión beta de iOS 18.1.

Sin embargo, aún queda por ver si el proyecto de ley será aprobado o vetado a finales de septiembre.

Sentando un precedente
Con esta legislación, California se posiciona como líder en la regulación de la IA, lo que podría influir en las leyes federales. El proyecto de ley tiene como objetivo combatir los riesgos asociados al mal uso de la IA, como la difusión de información errónea y la creación de imágenes y vídeos distorsionados (deepfakes). Esto último se ha convertido en una preocupación importante, especialmente resaltada por la polémica en torno a la herramienta Pixel Studio de Google, que permitía la generación de imágenes violentas.

A nivel federal, la administración Biden ha introducido un conjunto de directrices voluntarias para las empresas tecnológicas.

Mientras tanto, en marzo de este año, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial, que busca garantizar la seguridad y el respeto de los derechos fundamentales al tiempo que promueve la innovación.