Los legisladores de California están considerando una legislación que requeriría a las compañías de inteligencia artificial probar sus sistemas y añadir medidas de seguridad para que no puedan ser potencialmente manipulados para destruir la red eléctrica del estado o ayudar a construir armas químicas, escenarios que los expertos dicen podrían ser posibles en el futuro a medida que la tecnología evoluciona a gran velocidad.
Los legisladores planean votar el martes sobre este proyecto de ley, que busca reducir los riesgos creados por la inteligencia artificial y que es fuertemente oponido por las empresas tecnológicas, incluyendo Meta, la empresa matriz de Facebook e Instagram, y Google. Ellos argumentan que las regulaciones apuntan a los desarrolladores y que deberían estar enfocadas en aquellos que utilizan y explotan los sistemas de IA para dañar.
El senador estatal demócrata Scott Wiener, quien es el autor del proyecto de ley, dijo que la propuesta establecería estándares de seguridad razonables al prevenir «daños catastróficos» de modelos de IA extremadamente poderosos que podrían ser creados en el futuro. Los requisitos solo se aplicarían a sistemas que cuesten más de $100 millones en potencia informática para entrenar. Hasta julio, ningún modelo de IA actual ha alcanzado ese umbral.
«Esto no se trata de modelos de IA más pequeños», dijo Wiener en una audiencia legislativa reciente. «Esto se trata de modelos increíblemente grandes y poderosos que, hasta donde sabemos, no existen hoy, pero existirán en un futuro cercano».
El gobernador demócrata Gavin Newsom ha elogiado a California como un pionero temprano en la adopción y regulación de la IA, diciendo que el estado pronto podría implementar herramientas de IA generativa para abordar la congestión en las carreteras, hacer que las carreteras sean más seguras y proporcionar orientación fiscal. Al mismo tiempo, su administración está considerando nuevas reglas contra la discriminación de la IA en las prácticas de contratación. Se negó a comentar sobre el proyecto de ley, pero ha advertido que una sobre-regulación podría poner al estado en una «posición peligrosa».
La propuesta, apoyada por algunos de los investigadores de IA más reconocidos, también crearía una nueva agencia estatal para supervisar a los desarrolladores y proporcionar las mejores prácticas. El fiscal general del estado también podría emprender acciones legales en caso de violaciones.
Una creciente coalición de empresas tecnológicas argumenta que los requisitos desalentarían a las compañías de desarrollar grandes sistemas de IA o mantener su tecnología de código abierto.
«El proyecto de ley hará que el ecosistema de la IA sea menos seguro, pondrá en peligro los modelos de código abierto en los que confían las nuevas empresas y las pequeñas empresas, se basará en estándares que no existen e introducirá fragmentación regulatoria», escribió Rob Sherman, vicepresidente de Meta y subdirector de privacidad.
La propuesta también podría llevar a las empresas a abandonar el estado para evitar las regulaciones, dijo la Cámara de Comercio del estado.
Los opositores prefieren esperar más orientación del gobierno federal. Los defensores del proyecto de ley dijeron que California no puede esperar, citando duras lecciones que aprendieron al no actuar lo suficientemente rápido para controlar a las empresas de redes sociales.
Los legisladores estatales también estaban considerando el martes otra medida ambiciosa para combatir la discriminación de la automatización cuando las empresas utilizan modelos de IA para revisar currículums de trabajo y solicitudes de alquiler de apartamentos.