Mujeres en la IA: Ewa Luger explora cómo la IA afecta a la cultura — y viceversa

Para dar a las académicas y otros profesionales enfocados en la inteligencia artificial el reconocimiento que se merecen, y que ha sido tardío, TechCrunch está lanzando una serie de entrevistas centradas en mujeres notables que han contribuido a la revolución de la IA. Publicaremos varias piezas a lo largo del año mientras el auge de la IA continúa, destacando trabajos clave que a menudo pasan desapercibidos. Para leer más perfiles, haz clic [aquí](https://techcrunch.com/tag/women-in-ai/).

Ewa Luger es co-directora en el Instituto de Diseño Informático y co-directora del programa Bridging Responsible AI Divides (BRAID), respaldado por el Consejo de Investigación de Artes y Humanidades (AHRC, por sus siglas en inglés). Trabaja estrechamente con legisladores e industria, y es miembro del colegio de expertos del Departamento de Cultura, Medios y Deporte del Reino Unido, un grupo de expertos que brindan asesoramiento científico y técnico al departamento.

La investigación de Luger explora cuestiones sociales, éticas e interaccionales en el contexto de sistemas basados en datos, incluidos los sistemas de IA, con un interés particular en el diseño, la distribución de poder, esferas de exclusión y el consentimiento del usuario. Anteriormente, fue becaria en el Instituto Alan Turing, investigadora en Microsoft y becaria en el Corpus Christi College de la Universidad de Cambridge.

¿De qué manera comenzaste en el campo de la IA y qué te atrajo de este campo?
Después de obtener mi doctorado, me uní a Microsoft Research, donde trabajé en el grupo de experiencia de usuario y diseño en el laboratorio de Cambridge (Reino Unido). La IA era un enfoque principal allí, por lo que mi trabajo naturalmente se desarrolló más en esa área y se expandió a cuestiones relacionadas con la IA centrada en el ser humano (por ejemplo, asistentes de voz inteligentes). Cuando me mudé a la Universidad de Edimburgo, fue debido a un deseo de explorar cuestiones de inteligibilidad algorítmica, que, en 2016, era un área de nicho.

¿Qué trabajo en el campo de la IA te enorgullece más?
Mi trabajo más citado es un artículo sobre la experiencia del usuario de los asistentes de voz (2016). Fue el primer estudio de su tipo y aún se cita mucho. Pero el trabajo del que personalmente estoy más orgullosa aún está en curso.

BRAID es un programa que co-dirijo y está diseñado en colaboración con un filósofo y ético. Es un esfuerzo verdaderamente multidisciplinario diseñado para apoyar el desarrollo de un ecosistema de IA responsable en el Reino Unido. En asociación con el Instituto Ada Lovelace y la BBC, tiene como objetivo conectar el conocimiento en artes y humanidades con la política, regulación, industria y el sector voluntario.

Más prácticamente, he trabajado con socios de la industria como Microsoft y la BBC para co-producir desafíos de IA responsables, y hemos trabajado juntos para encontrar académicos que puedan responder a esos desafíos. BRAID ha financiado 27 proyectos hasta el momento, algunos de los cuales han sido becas individuales, y pronto lanzaremos una nueva convocatoria.

Estamos diseñando un curso en línea gratuito para partes interesadas que deseen involucrarse con la IA, estableciendo un foro donde esperamos involucrar a una muestra representativa de la población y a otras partes interesadas sectoriales para apoyar la gobernanza del trabajo, y ayudar a desmitificar algo de la exageración que rodea a la IA en este momento.

Sé que ese tipo de narrativa es lo que impulsa la inversión actual en torno a la IA, pero también sirve para cultivar temor y confusión entre las personas que son más propensas a sufrir daños a largo plazo. BRAID se extiende hasta finales de 2028 y en la próxima fase, abordaremos la alfabetización en AI, espacios de resistencia, y mecanismos para la contestación y recurso.

¿Cómo navegas por los desafíos de la industria tecnológica dominada por hombres y, por extensión, la industria de la IA dominada por hombres?
Es una pregunta interesante. Empezaría diciendo que estos problemas no solo se encuentran en la industria, como a menudo se percibe. El entorno académico tiene desafíos muy similares en cuanto a la igualdad de género. Actualmente soy co-directora de un instituto, Design Informatics, que reúne la escuela de diseño y la escuela de informática, por lo que diría que hay un mejor equilibrio tanto en términos de género como en términos de las cuestiones culturales que limitan a las mujeres a alcanzar su máximo potencial profesional en el lugar de trabajo.

Pero durante mi doctorado, estuve en un laboratorio dominado por hombres y, en menor medida, cuando trabajé en la industria. Dejando de lado los efectos obvios de las pausas en la carrera y el cuidado, mi experiencia ha sido de dos dinámicas entrelazadas. En primer lugar, se tienen estándares y expectativas mucho más altos para las mujeres, por ejemplo, ser amables, positivas, amigables, colaboradoras y demás. En segundo lugar, a menudo somos reacias a presentarnos para oportunidades por las que hombres menos calificados se postularían agresivamente. Por lo tanto, he tenido que empujarme bastante fuera de mi zona de confort en muchas ocasiones.

Otra cosa que he necesitado hacer es establecer límites firmes y aprender cuándo decir que no. A menudo se espera que las mujeres sean personas que complacen a los demás. Fácilmente se nos ve como la persona a la que acudir para las tareas que serían menos atractivas para tus colegas masculinos, incluso hasta el punto de asumir que somos la persona que prepara el té o toma notas en cualquier reunión, independientemente de nuestro estatus profesional. Solo realmente diciendo que no y asegurándonos de ser conscientes de nuestro valor, podemos comenzar a ser vistos de manera diferente. Generalizar en exceso al afirmar que esto es cierto para todas las mujeres, pero ciertamente ha sido mi experiencia. Debo decir que tuve una gerente femenina mientras estaba en la industria, y ella fue maravillosa, por lo que la mayoría del sexismo que he experimentado ha sido dentro de la academia.

En general, los problemas son estructurales y culturales, por lo que navegar por ellos requiere esfuerzo: primero, haciéndolos visibles y, segundo, abordándolos activamente. No hay soluciones simples y cualquier navegación coloca aún más carga emocional en las mujeres en tecnología.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?
Mi consejo siempre ha sido aprovechar las oportunidades que te permitan crecer, incluso si no sientes que eres el ajuste perfecto al 100%. Deja que te rechacen en lugar de descartar oportunidades tú misma. La investigación muestra que los hombres se postulan para roles que creen que podrían hacer, pero las mujeres solo lo hacen para aquellos que sienten que ya pueden hacer competente. Actualmente, también hay una tendencia hacia una mayor conciencia de género en los procesos de contratación y entre los financiadores, aunque ejemplos recientes muestran cuánto nos falta por avanzar.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?
Dado mi trasfondo, no sorprende que diría que los problemas más apremiantes que enfrenta la IA son aquellos relacionados con los daños inmediatos y a largo plazo que podrían ocurrir si no tenemos cuidado en el diseño, gobernanza y uso de los sistemas de IA. El problema más apremiante, y uno que ha sido poco investigado, es el impacto ambiental de los modelos a gran escala. Podríamos elegir en algún momento aceptar esos impactos si los beneficios de la aplicación superaran los riesgos. Pero en este momento, estamos viendo un uso generalizado de sistemas como Midjourney que se ejecutan simplemente por diversión, con usuarios en gran medida, si no completamente, inconscientes del impacto cada vez que realizan una consulta.

Otro problema importante es cómo conciliar la velocidad de las innovaciones de la IA y la capacidad del clima regulatorio de mantenerse al día. No es un problema nuevo, pero la regulación es el mejor instrumento que tenemos para asegurarnos de que los sistemas de IA se desarrollen y desplieguen de manera responsable.

Es muy fácil asumir que lo que se ha llamado la democratización de la IA —por esto me refiero a sistemas como ChatGPT fácilmente disponibles para cualquiera— es un desarrollo positivo. Sin embargo, ya estamos viendo los efectos del contenido generado en las industrias creativas y en los practicantes creativos, especialmente en lo que respecta a derechos de autor y atribución. El periodismo y los productores de noticias también están corriendo para asegurar que su contenido y marcas no se vean afectados. Este último punto tiene enormes implicaciones para nuestros sistemas democráticos, especialmente a medida que entramos en ciclos electorales clave. Los efectos podrían ser literalmente cambiantes para el mundo desde una perspectiva geopolítica. Tampoco podría ser una lista de problemas sin al menos una mención al sesgo.

¿Cuáles son algunos problemas de los que los usuarios de IA deberían ser conscientes?
No estoy seguro si esto se refiere a empresas que usan IA o ciudadanos regulares, pero asumo que se refiere a estos últimos. Creo que el problema principal aquí es la confianza. Estoy pensando aquí en los muchos estudiantes que ahora utilizan grandes modelos de lenguaje para generar trabajos académicos. Dejando de lado las cuestiones morales, los modelos aún no son lo suficientemente buenos para eso. A menudo las citas son incorrectas o fuera de contexto, y se pierde la sutileza de algunos documentos académicos.

Pero esto habla de un punto más amplio: aún no se puede confiar completamente en el texto generado, por lo que solo se deben utilizar esos sistemas cuando el contexto u el resultado tengan un riesgo bajo. El segundo problema obvio es la veracidad y autenticidad. A medida que los modelos se vuelvan cada vez más sofisticados, será cada vez más difícil saber con certeza si fue generado por un humano o una máquina. Todavía no hemos desarrollado, como sociedad, las alfabetizaciones necesarias para hacer juicios razonados sobre el contenido en un panorama mediático rico en IA. Las viejas reglas de alfabetización mediática se aplican en el ínterin: verifica la fuente.

Otro problema es que la IA no es inteligencia humana, por lo que los modelos no son perfectos; pueden ser engañados o corrompidos con relativa facilidad si uno tiene esa intención.

¿Cuál es la mejor manera de construir IA de manera responsable?
Los mejores instrumentos que tenemos son evaluaciones de impacto algorítmico y cumplimiento normativo, pero lo ideal sería buscar procesos que busquen activamente hacer el bien en lugar de simplemente buscar minimizar el riesgo.

Volviendo a lo básico, el primer paso obvio es abordar la composición de los diseñadores, asegurando que la IA, la informática y la ciencia de la computación como disciplinas atraigan a mujeres, personas de color y representación de otras culturas. Obviamente, no es una solución rápida, pero claramente habríamos abordado el problema del sesgo antes si fuera más heterogéneo. Eso me lleva al tema del corpus de datos y asegurar que sea apropiado y que se hagan esfuerzos para desbloquearlo apropiadamente.

Luego viene la necesidad de capacitar a los arquitectos de sistemas para que sean conscientes de los problemas morales y socio-técnicos, otorgándoles el mismo peso que damos a las disciplinas principales. Luego necesitamos darles a los arquitectos de sistemas más tiempo y agencia para considerar y solucionar cualquier problema potencial. Luego llegamos al tema de la gobernanza y la co-diseño en el que las partes interesadas deben estar involucradas en la gobernanza y el diseño conceptual del sistema. Y finalmente, debemos someter los sistemas a rigurosas pruebas antes de que lleguen a cualquier participante humano.

Idealmente, también deberíamos asegurarnos de que haya mecanismos para optar por, contestar y recurrir, aunque gran parte de esto está cubierto por las regulaciones emergentes. Parece obvio, pero también añadiría que debes estar preparado para desechar un proyecto que esté destinado a fracasar en cualquier medida de responsabilidad. A menudo hay algo de la falacia de costos hundidos en juego aquí, pero si un proyecto no se desarrolla como esperabas, aumentar tu tolerancia al riesgo en lugar de eliminarlo puede resultar en la muerte prematura de un producto.

El recién adoptado Acta de IA de la Unión Europea cubre gran parte de esto, por supuesto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *