Karine Perset ayuda a los gobiernos a comprender la inteligencia artificial

Karine Perset ayuda a los gobiernos a comprender la inteligencia artificial

Para darle a las académicas y a otras mujeres enfocadas en la inteligencia artificial el reconocimiento que se merecen, y que ha sido postergado por mucho tiempo, TechCrunch está lanzando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la inteligencia artificial. Publicaremos varios artículos a lo largo del año a medida que el auge de la IA continúe, resaltando trabajos clave que a menudo pasan desapercibidos.

Karine Perset trabaja para la Organización para la Cooperación y el Desarrollo Económicos (OCDE), donde dirige su Unidad de Inteligencia Artificial y supervisa el Observatorio de Políticas de IA de la OCDE y la Red de Expertos de la OCDE.AI dentro de la División de Política de la Economía Digital.

Perset se especializa en IA y políticas públicas. Anteriormente, trabajó como asesora del Comité Asesor Gubernamental de la Corporación de Internet para Nombres y Números Asignados (ICANN) y como Consejera del Director de Ciencia, Tecnología e Industria de la OCDE.

Estoy extremadamente orgullosa del trabajo que realizamos en OECD.AI. En los últimos años, la demanda de recursos políticos y orientación sobre AI confiable ha aumentado considerablemente tanto de los países miembros de la OCDE como de los actores del ecosistema de IA. Cuando comenzamos este trabajo alrededor de 2016, solo había un puñado de países que tenían iniciativas nacionales de IA. Avanzando al día de hoy, el Observatorio de Políticas de la OCDE.AI – un punto central de datos y tendencias de IA – documenta más de 1,000 iniciativas de IA en casi 70 jurisdicciones. Globalmente, todos los gobiernos se están enfrentando a las mismas preguntas sobre la gobernanza de la IA. Todos somos muy conscientes de la necesidad de encontrar un equilibrio entre habilitar la innovación y las oportunidades que la IA tiene para ofrecer y mitigar los riesgos relacionados con el mal uso de la tecnología. Creo que el surgimiento de la IA generativa a finales de 2022 realmente ha puesto un foco en esto. Los diez Principios de IA de la OCDE de 2019 fueron bastante perspicaces en el sentido de que anticiparon muchos problemas clave que aún son relevantes hoy en día, 5 años más tarde y con la tecnología de IA avanzando considerablemente. Los principios sirven como una brújula guía hacia una IA confiable que beneficie a las personas y al planeta para que los gobiernos elaboren sus políticas de IA. Colocan a las personas en el centro del desarrollo y despliegue de la IA, lo cual creo que es algo que no podemos perder de vista, no importa qué tan avanzadas, impresionantes y emocionantes se vuelvan las capacidades de la IA. Para hacer un seguimiento del progreso en la implementación de los Principios de IA de la OCDE, desarrollamos el Observatorio de Políticas de la OCDE.AI, un centro central de datos de IA en tiempo real o cuasi en tiempo real, análisis e informes, que se han convertido en recursos autorizados para muchos encargados de formular políticas en todo el mundo. Pero la OCDE no puede hacerlo sola, y la colaboración multiactor ha sido siempre nuestro enfoque. Creamos la Red de Expertos de la OECD.AI – una red de más de 350 de los principales expertos en IA a nivel mundial – para ayudar a aprovechar su inteligencia colectiva para informar el análisis de políticas. La red está organizada en seis grupos de expertos temáticos, examinando temas que incluyen riesgo y responsabilidad de la IA, incidentes de IA y el futuro de la IA.

En cuanto a cómo navego los desafíos de la industria tecnológica dominada por hombres y, por extensión, la industria de la IA dominada por hombres. Cuando miramos los datos, desafortunadamente, todavía vemos una brecha de género en términos de quién tiene las habilidades y los recursos para aprovechar la IA de manera efectiva. En muchos países, las mujeres todavía tienen menos acceso a capacitación, habilidades e infraestructura para tecnologías digitales. Todavía están subrepresentadas en I&D de IA, mientras que los estereotipos y prejuicios integrados en los algoritmos pueden llevar a discriminación de género y limitar el potencial económico de las mujeres. En los países de la OCDE, más del doble de hombres jóvenes que mujeres de entre 16 y 24 años pueden programar, una habilidad esencial para el desarrollo de IA. Claramente tenemos más trabajo por hacer para atraer a las mujeres al campo de la IA. Sin embargo, mientras el mundo tecnológico privado de la IA está altamente dominado por hombres, diría que el mundo de las políticas de la IA está un poco más equilibrado. Por ejemplo, mi equipo en la OCDE está cerca de la paridad de género. Muchas de las expertas en IA con las que trabajamos son mujeres verdaderamente inspiradoras, como Elham Tabassi del Instituto Nacional de Estándares y Tecnología (NIST) de EE. UU.; Francesca Rossi en IBM; Rebecca Finlay y Stephanie Ifayemi de la Partnership on AI; Lucilla Sioli, Irina Orssich, Tatjana Evas y Emilia Gomez de la Comisión Europea; Clara Neppel del IEEE; Nozha Boujemaa de Decathlon; Dunja Mladenic en el laboratorio de IA de la JSI eslovena; y por supuesto, mi increíble jefa y mentora, Audrey Plonk, solo por mencionar algunas, y hay muchas más. Necesitamos que las mujeres y grupos diversos estén representados en el sector tecnológico, académico y sociedad civil para aportar perspectivas ricas y diversas. Desafortunadamente, en 2022, solo una de cada cuatro investigadoras publicando sobre IA a nivel mundial era mujer. Si bien el número de publicaciones coautorizadas por al menos una mujer está aumentando, las mujeres solo contribuyen a alrededor de la mitad de todas las publicaciones de IA en comparación con los hombres, y la brecha se amplía a medida que aumenta el número de publicaciones. Todo esto para decir que necesitamos más representación de mujeres y grupos diversos en estos espacios.

Para responder a su pregunta, ¿cómo navego los desafíos de la industria tecnológica dominada por hombres? Yo me presento. Estoy muy agradecida de que mi posición me permita reunirme con expertos, funcionarios gubernamentales y representantes corporativos y hablar en foros internacionales sobre la gobernanza de la IA. Esto me permite participar en discusiones, compartir mi punto de vista y desafiar suposiciones. Y, por supuesto, dejo que los datos hablen por sí mismos.

En cuanto a qué consejo daría a las mujeres que buscan incursionar en el campo de la IA. Hablando desde mi experiencia en el mundo de las políticas de IA, diría que no tengan miedo de hablar y compartir su perspectiva. Necesitamos más voces diversas en la mesa cuando desarrollamos políticas y modelos de IA. Todos tenemos historias únicas y algo diferente que aportar a la conversación. Para desarrollar una IA más segura, inclusiva y confiable, debemos mirar los modelos de IA y los datos desde diferentes ángulos, preguntándonos: ¿qué nos falta? Si no hablas, podría resultar en que tu equipo pierda una idea realmente importante. Es probable que, debido a que tienes una perspectiva diferente, veas cosas que otros no ven, y como comunidad global, podemos ser mayores que la suma de nuestras partes si todos contribuyen. También enfatizaría que hay muchos roles y caminos en el campo de la IA. No se necesita un título en informática para trabajar en IA. Ya vemos juristas, economistas, científicos sociales y muchos más perfiles aportando sus perspectivas a la mesa. A medida que avanzamos, la verdadera innovación vendrá cada vez más de combinar el conocimiento del dominio con la alfabetización en IA y las competencias técnicas para desarrollar aplicaciones de IA efectivas en dominios específicos. Ya vemos que las universidades ofrecen cursos de IA más allá de los departamentos de informática. Realmente creo que la interdisciplinariedad será clave para las carreras en IA. Por lo tanto, animaría a las mujeres de todos los campos a considerar lo que pueden hacer con la IA. Y a no alejarse por temor a ser menos competentes que los hombres.

En cuanto a cuáles son algunos de los problemas más urgentes que enfrenta la IA a medida que evoluciona. Creo que los problemas más urgentes que enfrenta la IA pueden dividirse en tres categorías. En primer lugar, creo que debemos cerrar la brecha entre los responsables de formular políticas y los tecnólogos. A finales de 2022, los avances en la IA generativa tomaron a muchos por sorpresa, a pesar de que algunos investigadores anticiparon tales desarrollos. Comprendiblemente, cada disciplina está examinando los problemas de la IA desde un ángulo único. Pero los problemas de la IA son complejos; la colaboración e interdisciplinaridad entre los responsables de formular políticas, los desarrolladores de IA y los investigadores son clave para comprender los problemas de la IA de manera holística, ayudando a mantener el ritmo con el progreso de la IA y cerrar las brechas de conocimiento. En segundo lugar, la interoperabilidad internacional de las reglas de IA es crítica para la gobernanza de la IA. Muchas economías grandes han comenzado a regular la IA. Por ejemplo, la Unión Europea acaba de adoptar su Ley de IA, EE. UU. ha adoptado una orden ejecutiva para el desarrollo y uso seguro, seguro y confiable de la IA, y Brasil y Canadá han presentado proyectos de ley para regular el desarrollo y despliegue de la IA. Lo desafiante aquí es encontrar el equilibrio adecuado entre proteger a los ciudadanos y habilitar la innovación empresarial. La IA no conoce fronteras, y muchas de estas economías tienen enfoques diferentes respecto a la regulación y protección; será crucial permitir la interoperabilidad entre jurisdicciones. En tercer lugar, está la cuestión del seguimiento de incidentes de IA, que han aumentado rápidamente con el surgimiento de la IA generativa. La falta de abordar los riesgos asociados con los incidentes de IA podría exacerbar la falta de confianza en nuestras sociedades. Es importante, los datos sobre incidentes pasados pueden ayudarnos a prevenir incidentes similares en el futuro. El año pasado, lanzamos el Monitor de Incidentes de AI. Esta herramienta utiliza fuentes de noticias globales para rastrear incidentes de IA en todo el mundo para comprender mejor los daños resultantes de los incidentes de IA. Proporciona evidencia en tiempo real para apoyar decisiones políticas y regulatorias sobre IA, especialmente para riesgos reales como sesgo, discriminación y perturbación social, y los tipos de sistemas de IA que las causan.

Algunos problemas de los que los usuarios de IA deben estar conscientes. Algo con lo que los responsables de formular políticas en todo el mundo están luchando es cómo proteger a los ciudadanos de la desinformación generada por AI, como los medios sintéticos como deepfakes. Por supuesto, la desinformación ha existido durante algún tiempo, pero lo que es diferente aquí es la escala, calidad y bajo costo de las salidas sintéticas generadas por AI. Los gobiernos son muy conscientes del problema y están buscando formas de ayudar a los ciudadanos a identificar contenido generado por AI evaluar la veracidad de la información que consumen, pero esta es aún un área emergente, y aún no hay consenso sobre cómo abordar estos problemas.

Muchos de nosotros en la comunidad de políticas de IA estamos trabajando diligentemente para encontrar formas de construir AI de manera responsable, reconociendo que determinar el mejor enfoque a menudo depende del contexto específico en el que se implementa un sistema de IA. No obstante, construir una IA de manera responsable requiere una cuidadosa consideración de las implicaciones éticas, sociales y de seguridad a lo largo del ciclo de vida del sistema de IA. Uno de los Principios de IA de la OCDE se refiere a la responsabilidad que los actores de la IA tienen por el buen funcionamiento de los sistemas de IA que desarrollan y utilizan. Esto significa que los actores de la IA deben tomar medidas para garantizar que los sistemas de IA que construyen sean confiables. Con esto, quiero decir que deben beneficiar a las personas y al planeta, respetar los derechos humanos, ser justos, transparentes y explicables, y cumplir con niveles apropiados de robustez, seguridad y seguridad. Para lograr esto, los actores deben gobernar y manejar los riesgos a lo largo del ciclo de vida de sus sistemas de IA, desde la planificación, diseño y recopilación y procesamiento de datos hasta la construcción de modelos, validación y despliegue, operación y monitoreo.

Para poner en práctica estos principios, los inversores juegan un papel crucial al presionar por una conducta empresarial responsable en las empresas en las que invierten. Los inversores pueden guiar a las empresas para implementar estándares y directrices para la IA, como las Directrices de Conducta Empresarial Responsable (RBC) de la OCDE, que estamos adaptando actualmente específicamente para la IA. Estas directrices facilitarán notablemente el cumplimiento internacional para las empresas de IA que venden sus productos y servicios en diferentes países y permitirán transparencia en toda la cadena de valor de la IA, desde los proveedores hasta los usuarios finales. Las directrices de RBC para la IA también proporcionarán un mecanismo de cumplimiento extrajudicial: en forma de puntos de contacto nacionales designados por los gobiernos nacionales para mediar en disputas, permitiendo a los usuarios y las partes afectadas buscar remedios por daños relacionados con la IA.

Al guiar a las empresas para implementar estándares y directrices para la IA, como RBC, los socios del sector privado pueden desempeñar un papel vital en promover el desarrollo de una IA confiable y dar forma al futuro de las tecnologías de IA de una manera que beneficie a la sociedad en su conjunto.