En septiembre, el gobernador de California, Gavin Newsom, consideró 38 proyectos de ley relacionados con la inteligencia artificial, incluido el altamente controvertido SB 1047, que la legislatura estatal envió a su escritorio para su aprobación final. Veto SB 1047 el domingo, marcando el final del camino para el polémico proyecto de ley de California que intentaba prevenir desastres de IA, pero firmó más de una docena de otros proyectos de ley de IA en este mes. Estos proyectos de ley intentan abordar los problemas más urgentes en inteligencia artificial: desde el riesgo de IA, hasta deepfake nudes creados por generadores de imágenes de IA, hasta estudios de Hollywood creando clones de IA de artistas fallecidos.
«Siendo el hogar de la mayoría de las principales empresas de IA del mundo, California está trabajando para aprovechar estas tecnologías transformadoras para ayudar a abordar desafíos apremiantes mientras estudia los riesgos que presentan», dijo la oficina del gobernador Newsom en un comunicado de prensa.
Hasta ahora, el gobernador Newsom ha firmado 18 proyectos de ley de IA, algunos de los cuales son las leyes más avanzadas de América sobre IA generativa hasta ahora. Aquí está lo que hacen.
Riesgo de IA
El domingo, el gobernador Newsom firmó SB 896 en ley, que requiere que la Oficina de Servicios de Emergencia de California realice análisis de riesgos sobre las posibles amenazas planteadas por la IA generativa. CalOES trabajará con empresas modelo de vanguardia, como OpenAI y Anthropic, para analizar las posibles amenazas de la IA a la infraestructura crítica del estado, así como las amenazas que podrían provocar eventos con múltiples víctimas.
Datos de entrenamiento
Otra ley firmada por Newsom este mes requiere que los proveedores de IA generativa revelen los datos utilizados para entrenar sus sistemas de IA en la documentación publicada en su sitio web. AB 2013 entrará en vigencia en 2026 y requiere que los proveedores de IA publiquen: las fuentes de sus conjuntos de datos, una descripción de cómo se utiliza los datos, el número de puntos de datos en el conjunto, si se incluyen datos con derechos de autor o con licencia, el período de tiempo en que se recopilaron los datos, entre otros estándares.
Privacidad y sistemas de IA
Newsom también firmó AB 1008 el domingo, que aclara que las leyes de privacidad existentes de California se aplican también a los sistemas de IA generativa. Eso significa que si un sistema de IA, como ChatGPT, expone la información personal de alguien (nombre, dirección, datos biométricos), las leyes de privacidad existentes de California limitarán cómo las empresas pueden usar y beneficiarse de esos datos.
Educación
Newsom firmó AB 2876 este mes, que requiere que la Junta de Educación del Estado de California considere la «alfabetización en IA» en sus marcos curriculares e materiales educativos de matemáticas, ciencias e historia. Esto significa que las escuelas de California pueden comenzar a enseñar a los estudiantes los conceptos básicos de cómo funciona la inteligencia artificial, así como las limitaciones, impactos y consideraciones éticas del uso de la tecnología.
Otra nueva ley, SB 1288, requiere que los superintendentes de California creen grupos de trabajo para explorar cómo se está utilizando la IA en la educación de las escuelas públicas.
Definición de IA
Este mes, Newsom firmó un proyecto de ley que establece una definición uniforme para la inteligencia artificial en la ley de California. AB 2885 establece que la inteligencia artificial se define como «un sistema basado en máquinas o ingeniería que varía en su nivel de autonomía y que puede, para objetivos explícitos o implícitos, inferir a partir de la entrada que recibe cómo generar salidas que pueden influir en entornos físicos o virtuales».
Salud
Otro proyecto de ley firmado en septiembre es AB 3030, que requiere que los proveedores de atención médica divulguen cuándo utilizan IA generativa para comunicarse con un paciente, específicamente cuando esos mensajes contienen información clínica de un paciente.
Mientras tanto, Newsom firmó recientemente SB 1120, que pone limitaciones en cómo los proveedores de servicios de atención médica y las aseguradoras de salud pueden automatizar sus servicios. La ley asegura que los médicos con licencia supervisen el uso de herramientas de IA en estos entornos.
Llamadas automáticas de IA
El viernes pasado, el gobernador Newsom firmó un proyecto de ley que requiere que las llamadas automáticas revelen si utilizan voces generadas por IA. AB 2905 tiene como objetivo evitar otra instancia de la llamada automática falsa que se asemeja a la voz de Joe Biden que confundió a muchos votantes de Nuevo Hampshire a principios de este año.
Pornografía deepfake
El domingo, Newsom firmó AB 1831 en ley, que amplía el alcance de las leyes de pornografía infantil existentes para incluir material generado por sistemas de IA.
Newsom firmó dos leyes que abordan la creación y difusión de deepfake nudes la semana pasada. SB 926 criminaliza el acto, haciendo ilegal chantajear a alguien con imágenes de desnudos generadas por IA que se asemejan a ellos.
SB 981, que también se convirtió en ley el jueves, requiere que las plataformas de redes sociales establezcan canales para que los usuarios informen sobre imágenes de desnudos deepfake que se asemejan a ellos. El contenido luego debe bloquearse temporalmente mientras la plataforma lo investiga y eliminarse permanentemente si se confirma.
Marcas de agua
También el jueves, Newsom firmó un proyecto de ley para ayudar al público a identificar contenido generado por IA. SB 942 requiere que los sistemas de IA generativa ampliamente utilizados revelen que son generados por IA en los datos de procedencia de su contenido. Por ejemplo, todas las imágenes creadas por Dall-E de OpenAI ahora necesitan una pequeña etiqueta en sus metadatos que diga que son generadas por IA.
Muchas empresas de IA ya hacen esto, y hay varias herramientas gratuitas disponibles que pueden ayudar a las personas a leer estos datos de procedencia y detectar contenido generado por IA.
Deepfakes electorales
A principios de esta semana, el gobernador de California firmó tres leyes para frenar los deepfakes de IA que podrían influir en las elecciones.
Una de las nuevas leyes de California, AB 2655, requiere que las grandes plataformas en línea, como Facebook y X, eliminen o etiqueten los deepfakes de IA relacionados con elecciones, así como crear canales para informar sobre dicho contenido. Los candidatos y funcionarios electos pueden buscar alivio por mandato judicial si una plataforma en línea grande no cumple con la ley.
Otra ley, AB 2839, apunta a los usuarios de las redes sociales que publican o vuelven a publicar deepfakes de IA que podrían engañar a los votantes sobre las próximas elecciones. La ley entró en vigencia de inmediato el martes, y Newsom sugirió que Elon Musk podría estar en riesgo de violarla.
Los anuncios políticos generados por IA ahora requieren revelaciones directas bajo la nueva ley de California, AB 2355. Eso significa que en el futuro, Trump puede que no pueda salirse con la suya publicando deepfakes de IA de Taylor Swift que lo respalden en Truth Social. La FCC ha propuesto un requisito de divulgación similar a nivel nacional y ya ha declarado ilegales las llamadas automáticas utilizando voces generadas por IA.
Actores y IA
Dos leyes que Newsom firmó a principios de este mes, que SAG-AFTRA, el sindicato de actores y locutores de cine y televisión más grande del país, estaba impulsando, crean nuevos estándares para la industria de los medios de California. AB 2602 requiere que los estudios obtengan permiso de un actor antes de crear una réplica generada por IA de su voz o apariencia.
Mientras tanto, AB 1836 prohíbe a los estudios crear réplicas digitales de artistas fallecidos sin el consentimiento de sus herederos (por ejemplo, réplicas legalmente autorizadas se utilizaron en las recientes películas de «Alien» y «Star Wars», así como en otras películas).
SB 1047 es vetado
El gobernador Newsom aún tiene algunos proyectos de ley relacionados con la IA para decidir antes de fin de septiembre. Sin embargo, SB 1047 no es uno de ellos: el proyecto de ley fue vetado el domingo.
En una carta explicando su decisión, Newsom dijo que SB 1047 se centraba demasiado estrechamente en grandes sistemas de IA que podrían «dar al público una falsa sensación de seguridad». El gobernador de California señaló cómo los modelos de IA pequeños podrían ser igual de peligrosos que los dirigidos por SB 1047, y dijo que se necesita un enfoque regulatorio más flexible.
Durante una charla con el CEO de Salesforce, Marc Benioff, a principios de este mes durante la conferencia Dreamforce 2024, Newsom puede haber insinuado acerca de SB 1047 y cómo está pensando en regular más ampliamente la industria de la IA.
«Existe un proyecto de ley que destaca en términos de discurso y conciencia pública; es este SB 1047», dijo Newsom en el escenario este mes. «¿Cuáles son los riesgos demostrables en la IA y cuáles son los riesgos hipotéticos? No puedo resolver todo. ¿Qué podemos resolver? Y así es como estamos abordando el espectro en esto.»
Vuelve a consultar este artículo para obtener actualizaciones sobre las leyes de IA que firma el gobernador de California y las que no.