Para darle a las académicas y a otras mujeres centradas en la inteligencia artificial el merecido —y retrasado— reconocimiento que se merecen, TechCrunch ha estado publicando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la inteligencia artificial. Estamos publicando estos perfiles a lo largo del año a medida que el auge de la IA continúa, destacando trabajos clave que a menudo pasan desapercibidos. Puedes leer más perfiles aquí.
En el foco hoy: Rachel Coldicutt es la fundadora de Careful Industries, que investiga el impacto social que la tecnología tiene en la sociedad. Entre sus clientes se incluyen Salesforce y la Royal Academy of Engineering. Antes de Careful Industries, Coldicutt fue CEO del think tank Doteveryone, que también realizó investigaciones sobre cómo la tecnología estaba impactando en la sociedad.
Antes de Doteveryone, pasó décadas trabajando en estrategias digitales para empresas como la BBC y la Royal Opera House. Asistió a la Universidad de Cambridge y recibió un OBE (Orden del Imperio Británico) por su trabajo en tecnología digital.
Comenzaste a trabajar en tecnología a mediados de los años 90. ¿Cómo te adentraste en el campo de la IA? ¿Qué te atrajo de este campo?
Comencé a trabajar en tecnología a mediados de los años 90. Mi primer trabajo real en tecnología fue trabajando en Microsoft Encarta en 1997, y antes de eso, ayudé a construir bases de datos de contenido para libros de referencia y diccionarios. Durante las últimas tres décadas, he trabajado con todo tipo de tecnologías nuevas y emergentes, por lo que es difícil señalar el momento exacto en el que «entré en la IA», ya que he estado utilizando procesos automatizados y datos para tomar decisiones, crear experiencias y producir obras de arte desde la década de 2000. En lugar de eso, creo que la pregunta probablemente sea: «¿Cuándo se convirtió la IA en el conjunto de tecnologías del que todos querían hablar?» y creo que la respuesta es probablemente alrededor de 2014 cuando DeepMind fue adquirida por Google, ese fue el momento en el Reino Unido cuando la IA superó a todo lo demás, aunque muchas de las tecnologías subyacentes que ahora llamamos «IA» ya se utilizaban bastante comúnmente.
¿Cuál es el trabajo en el campo de la IA del que te sientes más orgullosa?
Gran parte de mi trabajo en IA ha estado en marcos de políticas y evaluaciones de impacto social, trabajando con departamentos gubernamentales, organizaciones benéficas y todo tipo de empresas para ayudarles a utilizar la IA y la tecnología relacionada de manera intencional y confiable.
En la década de 2010 dirigí Doteveryone, un think tank de tecnología responsable, que ayudó a cambiar el marco sobre cómo los responsables de políticas del Reino Unido piensan sobre la tecnología emergente. Nuestro trabajo dejó claro que la IA no es un conjunto de tecnologías sin consecuencias, sino algo que tiene implicaciones difusas en el mundo real para las personas y las sociedades. En particular, estoy muy orgullosa de la herramienta gratuita Consequence Scanning que desarrollamos, que ahora es utilizada por equipos y empresas de todo el mundo, ayudándoles a anticipar los impactos sociales, ambientales y políticos de las decisiones que toman al lanzar nuevos productos y funciones.
Más recientemente, el Foro de IA y Sociedad de 2023 fue otro momento de orgullo. En la antesala del foro de seguridad en IA dominado por la industria del gobierno del Reino Unido, mi equipo en Care Trouble convocó y curó rápidamente una reunión de 150 personas de diferentes sectores de la sociedad para hacer colectivamente el argumento de que es posible hacer que la IA funcione para 8 mil millones de personas, no solo para 8 multimillonarios.
¿Cómo navegas los desafíos de la industria tecnológica dominada por hombres y, por extensión, la industria de la IA dominada por hombres?
Como una veterana en el mundo de la tecnología, siento que algunos de los avances que hemos logrado en la representación de género en tecnología se han perdido en los últimos cinco años. La investigación del Instituto Turing muestra que menos del 1% de la inversión realizada en el sector de la IA ha sido en startups lideradas por mujeres, mientras que las mujeres aún representan solo una cuarta parte de la fuerza laboral tecnológica en general. Cuando voy a conferencias y eventos de IA, la mezcla de género —particularmente en términos de quién tiene una plataforma para compartir su trabajo— me recuerda a principios de los años 2000, lo que me resulta realmente triste y impactante.
Puedo navegar las actitudes sexistas de la industria tecnológica porque tengo el gran privilegio de poder fundar y dirigir mi propia organización: pasé gran parte de mi carrera temprana experimentando sexismo y acoso sexual a diario — lidiar con eso obstaculiza la realización de un gran trabajo y es un costo de entrada innecesario para muchas mujeres. En su lugar, he priorizado la creación de una empresa feminista donde, colectivamente, trabajamos por la equidad en todo lo que hacemos, y mi esperanza es mostrar que existen otras formas posibles.
¿Qué consejo darías a las mujeres que buscan ingresar al campo de la IA?
No sientas que tienes que trabajar en un campo de «asuntos de mujeres», no te dejes intimidar por la publicidad exagerada y busca compañeras y construye amistades con otras personas para tener una red de apoyo activa. Lo que me ha mantenido en el camino todos estos años es mi red de amigos, excolegas y aliados —nos ofrecemos mutuo apoyo, un suministro interminable de charlas de ánimo y, a veces, un hombro en el que llorar. Sin eso, puede sentirse muy solitario; a menudo serás la única mujer en la habitación, por lo que es vital tener un lugar seguro al que acudir para desahogarte.
En cuanto tengas la oportunidad, contrata bien. No repliques las estructuras que has visto o que refuerces las expectativas y normas de una industria elitista y sexista. Desafía el statu quo cada vez que contrates y apoya a tus nuevas contrataciones. De esta manera, puedes comenzar a construir una nueva normalidad, donde sea que estés.
Y busca el trabajo de algunas de las grandes mujeres que están abriendo camino en la investigación y práctica de la IA: comienza leyendo el trabajo de pioneras como Abeba Birhane, Timnit Gebru y Joy Buolamwini, quienes han producido investigaciones fundamentales que han dado forma a nuestra comprensión de cómo la IA cambia e interactúa con la sociedad.
¿Cuáles son algunos de los problemas más urgentes que enfrenta la IA a medida que evoluciona?
La IA es un intensificador. Puede sentirse como que algunos usos son inevitables, pero como sociedades, necesitamos tener la capacidad de tomar decisiones claras sobre qué vale la pena intensificar. En este momento, el principal impacto del aumento del uso de la IA es aumentar el poder y los salarios de un número relativamente pequeño de CEOs masculinos y parece poco probable que esté moldeando un mundo en el que muchas personas quieran vivir. Me encantaría ver a más personas, especialmente en la industria y en la formulación de políticas, involucrándose en las cuestiones de cómo se vería una IA más democrática y responsable y si siquiera es posible.
Los impactos climáticos de la IA —el uso de agua, energía y minerales críticos— y los impactos en la salud y la justicia social de las personas y comunidades afectadas por la explotación de los recursos naturales deben estar en la parte superior de la lista para un desarrollo responsable. El hecho de que las LLMs, en particular, sean tan energéticamente intensivas habla del hecho de que el modelo actual no es adecuado; en el 2024, necesitamos innovación que proteja y restaure el mundo natural, y los modelos y formas de trabajar extractivos deben ser retirados.
También debemos ser realistas sobre los impactos de la vigilancia en una sociedad más dataficada y el hecho de que —en un mundo cada vez más volátil— es probable que cualquier tecnología de propósito general sea utilizada para horrores inimaginables en la guerra. Todos los que trabajan en IA deben ser realistas sobre la histórica y duradera asociación de I+D tecnológico con el desarrollo militar; debemos impulsar, apoyar y demandar innovación que empiece en y sea gobernada por comunidades para obtener resultados que fortalezcan la sociedad, no que causen más destrucción.
¿Cuáles son algunos problemas de los que los usuarios de IA deberían ser conscientes?
Además de la extracción ambiental y económica que está incorporada en muchos de los modelos de negocio y tecnología actuales de IA, es muy importante pensar en los impactos diarios del aumento del uso de IA y lo que eso significa para las interacciones humanas cotidianas.
Aunque algunos de los problemas que llegan a los titulares han estado relacionados con riesgos más existenciales, vale la pena estar atento a cómo las tecnologías que utilizas te ayudan y obstaculizan en tu vida diaria: ¿qué automatizaciones puedes desactivar y evitar, cuáles ofrecen un beneficio real y dónde puedes votar con tus pies como consumidor para demostrar que realmente quieres seguir hablando con una persona real y no con un bot? No necesitamos conformarnos con una automatización de mala calidad y debemos unirnos para exigir mejores resultados.
¿Cuál es la mejor manera de construir IA de manera responsable?
La IA responsable comienza con buenas elecciones estratégicas —en lugar de simplemente lanzar un algoritmo y esperar lo mejor, es posible ser intencional sobre qué automatizar y cómo. He estado hablando sobre la idea de «Just enough internet» durante algunos años, y parece ser una idea realmente útil para guiar cómo pensamos en construir cualquier nueva tecnología. En lugar de empujar los límites todo el tiempo, ¿podemos construir IA de una manera que maximice los beneficios para las personas y el planeta y minimice el daño?
Hemos desarrollado un proceso sólido para esto en Careful Trouble, donde trabajamos con juntas y equipos directivos, comenzando por mapear cómo la IA puede y no puede apoyar tu visión y valores; entendiendo dónde los problemas son demasiado complejos y variables para mejorar con la automatización y dónde creará beneficios; y por último, desarrollando un marco activo de gestión de riesgos. El desarrollo responsable no es una aplicación única de un conjunto de principios, sino un proceso continuo de monitoreo y mitigación. La implementación continua y la adaptación social significan que la garantía de calidad no puede ser algo que termine una vez que se lanza un producto; como desarrolladores de IA, necesitamos construir la capacidad para una percepción social iterativa y tratar el desarrollo y la implementación responsables como un proceso vivo.
¿Cómo pueden los inversores presionar de manera más efectiva por una IA responsable?
Haciendo inversiones más pacientes, respaldando a fundadores y equipos más diversos, y no buscando rendimientos exponenciales.