La posibilidad de que los sistemas de inteligencia artificial puedan causar desastres ha generado gran debate en California, y es por ello que se propuso el proyecto de ley SB 1047 para prevenir estos eventos catastróficos. Sin embargo, esta iniciativa ha enfrentado una fuerte oposición por parte de diversas partes en Silicon Valley.
Hoy, los legisladores de California cedieron ligeramente a esa presión, incluyendo varias enmiendas sugeridas por la empresa de inteligencia artificial Anthropic y otros opositores al proyecto de ley. A pesar de esto, el proyecto de ley logró pasar por el Comité de Apropiaciones de California, dando un paso importante hacia su aprobación como ley, con varios cambios clave, según informó la oficina del Senador Wiener a TechCrunch.
El objetivo principal del SB 1047 sigue siendo prevenir que los grandes sistemas de inteligencia artificial causen la muerte de muchas personas o eventos de ciberseguridad que cuesten más de $500 millones, responsabilizando a los desarrolladores por estos hechos. Sin embargo, ahora el proyecto de ley otorga menos poder al gobierno de California para responsabilizar a los laboratorios de inteligencia artificial.
Una de las modificaciones más significativas es que el Procurador General de California ya no podrá demandar a las empresas de inteligencia artificial por prácticas de seguridad negligentes antes de que ocurra un evento catastrófico, una sugerencia de Anthropic. En cambio, el Procurador podrá solicitar medidas cautelares para detener operaciones peligrosas y demandar a un desarrollador de inteligencia artificial si su modelo efectivamente causa un evento catastrófico.
Además, el proyecto de ley eliminó la creación de la División del Modelo de Frontera (FMD), una nueva agencia gubernamental que estaba incluida previamente en el proyecto. Sin embargo, se mantiene la creación de la Junta de Modelos de Frontera, que ahora cuenta con nueve miembros en lugar de cinco, y se ubicará dentro de la Agencia de Operaciones del Gobierno existente.
El Senador Wiener también modificó el SB 1047 para que los laboratorios de inteligencia artificial ya no tengan que presentar certificaciones de resultados de pruebas de seguridad «bajo pena de perjurio», sino que simplemente deben presentar declaraciones públicas detallando sus prácticas de seguridad, sin imponer responsabilidades penales.
Además, el proyecto de ley incluye un lenguaje más flexible en cuanto a cómo los desarrolladores garantizan que los modelos de inteligencia artificial sean seguros, requiriendo ahora que proporcionen un «cuidado razonable» en lugar de una «garantía razonable» como se exigía antes. También se agregó una protección para modelos de código abierto afinados. Si alguien gasta menos de $10 millones en el ajuste fino de un modelo cubierto, explícitamente no se considera un desarrollador según el SB 1047.
Si bien estas enmiendas parecen apaciguar a los opositores del SB 1047 y presentar al Gobernador Newsom un proyecto de ley menos polémico, los críticos más vehementes siguen expresando su desacuerdo con el proyecto, considerándolo aún débil y peligroso para la industria tecnológica y de inteligencia artificial. A pesar de las modificaciones, el tema central de responsabilizar a los desarrolladores por los peligros de sus modelos de inteligencia artificial sigue siendo motivo de controversia.
El proyecto de ley SB 1047 ahora avanza hacia el pleno de la Asamblea de California para una votación final. De pasar esta etapa, necesitará regresar al Senado de California para una nueva votación debido a las últimas enmiendas. Si logra ser aprobado en ambas cámaras, finalmente llegará al escritorio del Gobernador Newsom, donde será decisión suya vetarlo o convertirlo en ley.