El Departamento de Comercio de los Estados Unidos emitió hoy un informe en apoyo a los modelos de IA generativa «open-weight» como el Llama 3.1 de Meta, pero recomendó que el gobierno desarrolle «nuevas capacidades» para monitorear estos modelos en busca de posibles riesgos.
El informe, redactado por la Administración Nacional de Telecomunicaciones e Información (NTIA) del Departamento de Comercio, concluye que los modelos open-weight amplían la disponibilidad de la IA generativa a pequeñas empresas, investigadores, organizaciones sin fines de lucro y desarrolladores individuales. Por estas razones, el gobierno no debería imponer restricciones al acceso a modelos abiertos, sugiere el informe, al menos no antes de investigar si las restricciones podrían perjudicar el mercado.
El sentimiento refleja comentarios recientes de la presidenta de la Comisión Federal de Comercio (FTC), Lina Khan, quien cree que los modelos abiertos pueden permitir que más pequeños actores lleven sus ideas al mercado y, al hacerlo, promover una competencia saludable.
«La apertura de los sistemas de IA más grandes y poderosos afectará la competencia, la innovación y los riesgos en estas herramientas revolucionarias», agregó Alan Davidson, subsecretario de Comercio para Comunicaciones e Información y administrador de la NTIA, en un comunicado. «El informe de la NTIA reconoce la importancia de los sistemas de IA abiertos y aboga por un monitoreo más activo de los riesgos derivados de la amplia disponibilidad de los pesos de los modelos para los mayores modelos de IA. El gobierno tiene un papel clave que desempeñar en el apoyo al desarrollo de la IA y en la creación de capacidad para comprender y abordar nuevos riesgos».
El informe se produce en un momento en que los reguladores nacionales y extranjeros están considerando reglas que podrían restringir o imponer nuevos requisitos a las empresas que deseen lanzar modelos open-weight.
California está a punto de aprobar SB 1047, que exigiría que cualquier empresa que entrene un modelo utilizando más de 10^26 FLOP de potencia de cálculo refuerce su ciberseguridad y desarrolle una forma de «apagar» copias del modelo dentro de su control. En el extranjero, la UE recientemente ha establecido plazos de cumplimiento para empresas bajo su Ley de IA, que impone nuevas reglas sobre derechos de autor, transparencia y aplicaciones de IA.
Meta ha dicho que las políticas de IA de la UE evitarán que lance algunos modelos abiertos en el futuro. Y varias startups y grandes empresas tecnológicas se han manifestado en contra de la ley de California, la cual consideran demasiado gravosa.
La filosofía de gobernanza de modelos de la NTIA no es completamente laissez-faire. En su informe, la NTIA pide al gobierno que desarrolle un programa continuo para recopilar evidencia de los riesgos y beneficios de los modelos abiertos, evaluar esa evidencia y actuar en función de esas evaluaciones, incluida la imposición de ciertas restricciones a la disponibilidad del modelo si es necesario. Específicamente, el informe propone que el gobierno investigue la seguridad de varios modelos de IA, apoye la investigación en cuanto a la mitigación de riesgos y desarrolle umbrales de indicadores «específicos del riesgo» para señalar que podría ser necesario un cambio en la política.
Estos y otros pasos serían acordes con la orden ejecutiva sobre IA del presidente Joe Biden, señaló Gina Raimondo, secretaria de Comercio de los Estados Unidos, la cual llamó a las agencias gubernamentales y a las empresas a establecer nuevos estándares en torno a la creación, despliegue y uso de la IA.
«La Administración Biden-Harris está utilizando todos los recursos posibles para maximizar la promesa de la IA mientras minimiza sus riesgos», dijo Raimondo en un comunicado de prensa. «El informe de hoy proporciona un camino a seguir para la innovación responsable en IA y el liderazgo estadounidense al abrazar la apertura y recomendar cómo el gobierno de los Estados Unidos puede prepararse y adaptarse a los desafíos potenciales en el futuro.»