Para darle a las mujeres académicas enfocadas en inteligencia artificial y a otros su merecido —y atrasado— tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas que se enfocan en mujeres notables que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que el auge de la IA continúa, destacando trabajos clave que a menudo pasan desapercibidos. Puedes leer más perfiles aquí.
Heidy Khlaaf es directora de ingeniería en la firma de ciberseguridad Trail of Bits. Se especializa en evaluar software e implementaciones de IA dentro de sistemas «críticos para la seguridad», como plantas nucleares y vehículos autónomos.
Khlaaf obtuvo su doctorado en informática de la Universidad College de Londres y su licenciatura en informática y filosofía de la Universidad Estatal de Florida. Ha liderado auditorías de seguridad, brindado consultas y revisiones de casos de aseguramiento y ha contribuido a la creación de estándares y pautas para aplicaciones relacionadas con la seguridad y la seguridad y su desarrollo.
En breve, ¿cómo comenzaste en la IA? ¿Qué te atrajo al campo?
Desde muy joven me sentí atraída por la robótica, y empecé a programar a los 15 años porque estaba fascinada por las perspectivas de utilizar la robótica y la IA (ya que están inexplicablemente vinculadas) para automatizar cargas de trabajo donde más se necesitan. Como en la fabricación, vi que la robótica se utilizaba para ayudar a las personas mayores y automatizar trabajos manuales peligrosos en nuestra sociedad. Sin embargo, obtuve mi doctorado en un subcampo diferente de la informática, porque creo que tener una sólida base teórica en informática te permite tomar decisiones educadas y científicas sobre dónde la IA puede ser o no adecuada y dónde pueden surgir problemas.
¿De qué trabajo estás más orgullosa en el campo de la IA?
Utilizando mi sólida experiencia y antecedentes en ingeniería de seguridad y sistemas críticos para la seguridad para proporcionar contexto y crítica donde sea necesario en el nuevo campo de la «seguridad» de la IA. Aunque el campo de la seguridad de la IA ha intentado adaptarse y citar técnicas de seguridad y de seguridad bien establecidas, diversos términos se han tergiversado en su uso y significado. Existe una falta de definiciones consistentes o intencionales que comprometen la integridad de las técnicas de seguridad que la comunidad de IA está utilizando actualmente. Estoy particularmente orgullosa de «Hacia Evaluaciones de Riesgos y Aseguramiento Completos de Sistemas Basados en IA» y «Un Marco de Análisis de Peligros para la Síntesis de Código de Grandes Modelos de Lenguaje» donde deconstruyo falsas narrativas sobre seguridad y evaluaciones de IA, y proporciono pasos concretos para cerrar la brecha de seguridad dentro de la IA.
¿Cómo navegas por los desafíos de la industria tecnológica dominada por hombres y, por extensión, de la industria de la IA dominada por hombres?
Reconocer lo poco que ha cambiado el statu quo no es algo que discutimos a menudo, pero creo que es importante para mí y otras mujeres técnicas entender nuestra posición dentro de la industria y tener una visión realista sobre los cambios necesarios. Las tasas de retención y la proporción de mujeres en puestos directivos han permanecido prácticamente iguales desde que ingresé al campo, y eso fue hace más de una década. Y como TechCrunch ha señalado acertadamente, a pesar de los tremendos avances y contribuciones de las mujeres en la IA, seguimos marginadas de conversaciones que nosotras mismas hemos definido. Reconocer esta falta de progreso me ayudó a entender que construir una sólida comunidad personal es mucho más valioso como fuente de apoyo que depender de iniciativas de diversidad, equidad e inclusión que, desafortunadamente, no han movido la aguja, dado que el sesgo y el escepticismo hacia las mujeres técnicas todavía son bastante omnipresentes en la tecnología.
¿Qué consejo darías a las mujeres que buscan ingresar al campo de la IA?
No apelar a la autoridad y encontrar un trabajo en el que realmente creas, incluso si contradice narrativas populares. Dado el poder que tienen actualmente los laboratorios de IA políticamente y económicamente, hay un instinto de aceptar como verdad todo lo que dicen los «líderes de pensamiento» de la IA, cuando suele ser el caso que muchas afirmaciones de la IA son un lenguaje de marketing que exagera las capacidades de la IA para beneficiar a la línea de fondo. Sin embargo, veo una significativa vacilación, especialmente entre las mujeres jóvenes en el campo, para expresar escepticismo contra afirmaciones hechas por sus compañeros masculinos que no pueden ser sustentadas. El síndrome del impostor tiene un fuerte impacto en las mujeres dentro de la tecnología, y lleva a muchos a dudar de su propia integridad científica. Pero es más importante que nunca cuestionar afirmaciones que exageran las capacidades de la IA, especialmente aquellas que no son falsables bajo el método científico.
¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?
Independientemente de los avances que observemos en la IA, nunca será la solución única, tecnológica o social, a nuestros problemas. Actualmente hay una tendencia a integrar la IA en todos los sistemas posibles, independientemente de su efectividad (o falta de ella) en numerosos ámbitos. La IA debería aumentar las capacidades humanas en lugar de reemplazarlas, y estamos observando un completo desprecio de los peligros y modos de falla de la IA que están llevando a daños tangibles reales. Recientemente, un sistema de IA llamado ShotSpotter llevó a un oficial a disparar a un niño.
¿Qué problemas deberían tener en cuenta los usuarios de la IA?
Qué tan verdaderamente poco confiable es la IA. Los algoritmos de IA son notoriamente defectuosos, con altas tasas de error observadas en aplicaciones que requieren precisión, exactitud y críticidad para la seguridad. La forma en que se entrenan los sistemas de IA incorpora sesgos y discriminaciones humanas en sus resultados que se vuelven «de facto» y automatizados. Y esto se debe a que la naturaleza de los sistemas de IA es proporcionar resultados basados en inferencias y correlaciones estadísticas y probabilísticas a partir de datos históricos, y no a partir de ningún tipo de razonamiento, evidencia factual o «causalidad».
¿Cuál es la mejor manera de construir IA de manera responsable?
Garantizar que la IA se desarrolle de manera que proteja los derechos y la seguridad de las personas a través de construir afirmaciones verificables y responsabilizar a los desarrolladores de IA ante ellas. Estas afirmaciones también deben estar enmarcadas en una aplicación regulatoria, de seguridad, ética o técnica y no deben ser falsables. De lo contrario, existe una falta significativa de integridad científica para evaluar adecuadamente estos sistemas. Los reguladores independientes también deberían evaluar los sistemas de IA contra estas afirmaciones, como actualmente se requiere para muchos productos y sistemas en otras industrias, por ejemplo, aquellos evaluados por la FDA. Los sistemas de IA no deben estar exentos de los procesos de auditoría estándar que están bien establecidos para garantizar la protección pública y del consumidor.
¿Cómo pueden los inversionistas impulsar mejor una IA responsable?
Los inversionistas deben colaborar con y financiar organizaciones que buscan establecer y avanzar en prácticas de auditoría para la IA. Actualmente, la mayoría de los fondos se invierten en los propios laboratorios de IA, con la creencia de que sus equipos de seguridad son suficientes para el avance de las evaluaciones de IA. Sin embargo, los auditores y reguladores independientes son clave para la confianza pública. La independencia permite que el público confíe en la precisión y la integridad de las evaluaciones y la integridad de los resultados regulatorios.