El oficial legal jefe de GitHub, Shelley McKinley, tiene mucho en su plato, con litigios legales en torno a su par-programador Copilot, así como la Ley de Inteligencia Artificial (IA) que fue aprobada por el Parlamento Europeo esta semana como «la primera ley de IA integral del mundo». Tres años en gestación, la Ley de IA de la UE surgió por primera vez en 2021 a través de propuestas diseñadas para abordar el creciente alcance de la IA en nuestras vidas cotidianas. El nuevo marco legal está destinado a regular las aplicaciones de IA en función de los riesgos percibidos, con diferentes reglas y estipulaciones según la aplicación y el caso de uso.
GitHub, que Microsoft compró por $7.5 mil millones en 2018, se ha convertido en uno de los más fervientes detractores alrededor de un elemento muy específico de las regulaciones: la confusa redacción sobre cómo las reglas podrían crear responsabilidad legal para los desarrolladores de software de código abierto. Shelley McKinley se unió a Microsoft en 2005, desempeñando diversos roles legales, antes de llegar al puesto de oficial legal jefe de GitHub hace casi tres años. McKinley también está a cargo de supervisar la sostenibilidad ambiental, que se alinea directamente con los objetivos de sostenibilidad de Microsoft. Y luego están los problemas relacionados con la confianza y la seguridad, que abarcan la moderación de contenidos para asegurar que «GitHub siga siendo un lugar acogedor, seguro y positivo para los desarrolladores», según lo describe McKinley.
Sin embargo, no se puede ignorar el hecho de que el papel de McKinley se ha vuelto cada vez más entrelazado con el mundo de la IA. En el lanzamiento de su herramienta de programación en pareja habilitada para IA, Copilot, hace tres años, GitHub sentó las bases para una revolución de IA generativa que parece estar revolucionando casi todas las industrias, incluido el desarrollo de software. Aunque Copilot ha molestado a un segmento sustancial de la comunidad de desarrolladores, incluidos los de la organización sin fines de lucro Software Freedom Conservancy, que pidieron a todos los desarrolladores de software de código abierto que abandonen GitHub después del lanzamiento comercial de Copilot en 2022. El problema es que Copilot es un servicio propietario de pago que se aprovecha del duro trabajo de la comunidad de código abierto. Además, Copilot fue desarrollado en colaboración con OpenAI, inclinándose sustancialmente en OpenAI Codex, que a su vez fue entrenado en una gran cantidad de código fuente público y modelos de lenguaje natural.
En última instancia, Copilot plantea preguntas clave sobre quién escribió una pieza de software: si simplemente está regurgitando código escrito por otro desarrollador, ¿no debería ese desarrollador recibir crédito por ello? El lío de Copilot también destaca algunas de las dificultades para simplemente entender qué es la IA generativa. Grandes modelos de lenguaje, como los utilizados en herramientas como ChatGPT o Copilot, se entrenan en vastas extensiones de datos, al igual que un desarrollador de software humano aprende a hacer algo al revisar el código anterior, es probable que Copilot siempre produzca contenido similar (o incluso idéntico) a lo que se ha producido anteriormente. En otras palabras, cada vez que coincida con código público, la coincidencia suele aplicarse a «docenas, si no cientos» de repositorios. A pesar de esto, McKinley considera que su arduo trabajo de cabildeo ha dado sus frutos en gran medida, con los reguladores centrándose menos en el «componente de software» (los elementos individuales de un sistema que es más probable que creen los desarrolladores de código abierto) y más en lo que está sucediendo a nivel de aplicación compilada.
En cuanto al próximo paso, McKinley señala que será fundamental trabajar en estándares técnicos que las empresas puedan cumplir. Además, más regulaciones están en el horizonte, con el presidente Biden emitiendo una orden ejecutiva recientemente con miras a establecer estándares en torno a la seguridad y la ciberseguridad de la IA, lo que da una idea de cómo Europa y Estados Unidos podrían diferir en cuanto a regulación, incluso si comparten un enfoque similar basado en el riesgo. McKinley considera que la Ley de IA de la UE es «fundamentalmente basada en derechos», como cabría esperar en Europa, mientras que el lado de Estados Unidos está muy centrado en la ciberseguridad y deepfakes. En general, tanto Europa como Estados Unidos se enfocan en los escenarios de riesgo y McKinley cree que tomar un enfoque basado en el riesgo es la forma correcta de abordar el tema.