El CEO de OpenAI, Sam Altman, asegura que no es el miedo a los «robots asesinos» u otra criatura tecnológica al estilo Frankenstein que la inteligencia artificial (IA) podría alimentar lo que lo mantiene despierto por la noche. En cambio, es la capacidad de la tecnología para desviar a la sociedad, insidiosa y sutilmente, desde el interior.
Sin regulaciones internacionales adecuadas, el software podría arrasar a la sociedad cuando «los desalineamientos sociales muy sutiles» no sean abordados, dijo Altman mientras hablaba virtualmente en la Cumbre de Gobiernos Mundiales en Dubai el martes. El multimillonario de la tecnología enfatizó que «sin ninguna intención en particular, las cosas simplemente salen terriblemente mal».
La IA puede, y ya está, ayudando a las personas a trabajar de manera más inteligente y rápida. También puede ayudar a las personas a vivir más fácilmente con opciones para una educación personalizada, consejos médicos personalizados y capacitación en educación financiera. Pero a medida que la nueva tecnología continúa infiltrándose en todo, muchos están preocupados por cómo está creciendo en gran parte sin restricciones de reguladores autoritarios y cuáles podrían ser las consecuencias en sectores importantes como elecciones, desinformación en los medios y relaciones globales.
A su crédito, Altman ha expresado consistentemente y en voz alta estas preocupaciones, incluso aunque su empresa lanzó el disruptivo chatbot conocido como ChatGPT al mundo.
«Imagina un mundo donde todos tienen un gran tutor personal, excelentes consejos médicos personalizados», preguntó Altman a la multitud en Dubai. Ahora las personas pueden usar herramientas de inteligencia artificial, como software que analiza datos médicos, almacena registros de pacientes en la nube y diseña clases y conferencias «para descubrir todo tipo de nueva ciencia, curar enfermedades y sanar el medio ambiente», dijo.
Estas son algunas formas en las que la IA puede ayudar a las personas a nivel personal, pero el impacto global es una imagen mucho más grande. La relevancia de la IA es su capacidad para estar a la vanguardia de los tiempos, y nuestros tiempos actuales están nublados por elecciones afectadas por desinformación, desinformación en los medios y operaciones militares, para las cuales la inteligencia artificial también ofrece casos de uso.
Este año se celebrarán elecciones en más de 50 países, donde los lugares de votación estarán abiertos para más de la mitad de la población del planeta. En una declaración el mes pasado, OpenAI escribió que las herramientas de inteligencia artificial deben usarse «de manera segura y responsable, y las elecciones no son diferentes». Contenidos abusivos, como «deepfakes engañosos» (es decir, fotos y videos falsos generados por inteligencia artificial), o «chatbots que se hacen pasar por candidatos» son todos problemas que la empresa espera anticipar y prevenir.
Altman no especificó cuántas personas estarían trabajando en problemas relacionados con las elecciones, según Axios, pero rechazó la idea de que un gran equipo de elecciones ayudaría a evitar estos problemas en la cobertura electoral. Axios dice que la empresa de Altman tiene muchas menos personas dedicadas a la seguridad electoral que otras empresas tecnológicas, como Meta o TikTok. Sin embargo, OpenAI anunció que está trabajando con la Asociación Nacional de Secretarios de Estado, la organización no partidista más antigua del país para funcionarios públicos, y dirigirá a los usuarios a sitios web autorizados para obtener información sobre votaciones en los Estados Unidos en respuesta a preguntas sobre elecciones.
Las cosas también son complicadas para las empresas de medios: a finales del año pasado, The New York Times demandó a OpenAI por infracción de derechos de autor, mientras que otros medios de comunicación, incluidos Axel Springer y The Associated Press, han estado celebrando acuerdos con empresas de inteligencia artificial en arreglos que pagan a las salas de redacción a cambio del derecho de usar su contenido para entrenar modelos de inteligencia artificial basados en el lenguaje. Con más entrenamiento de inteligencia artificial respaldada por los medios, también existe la preocupación por la difusión de desinformación.
El mes pasado, OpenAI eliminó silenciosamente la letra pequeña que prohibía el uso militar de la tecnología. El movimiento sigue al anuncio de la empresa de que colaborará con el Departamento de Defensa de Estados Unidos en herramientas de inteligencia artificial, según una entrevista con Anna Makanju, vicepresidenta de asuntos globales de la empresa, según informó Bloomberg.
Anteriormente, la política de OpenAI prohibía actividades con «alto riesgo de daño físico», incluido el desarrollo de armas, militares y la guerra. Las políticas actualizadas de la empresa, sin ninguna mención de las pautas militares y de guerra, sugieren que el uso militar ahora es aceptable.
Actividades que puedan dañar significativamente la «seguridad, bienestar o derechos de otros», están claramente escritas en la lista de «No hacer» de OpenAI, pero las palabras no son más que una advertencia a medida que se hace evidente que regular la inteligencia artificial será un desafío enorme al que pocos están respondiendo. El año pasado, Altman testificó en una reunión del subcomité de supervisión de IA del Comité Judicial del Senado, pidiendo colaboración gubernamental para establecer requisitos de seguridad que también sean lo suficientemente flexibles para adaptarse a nuevos desarrollos técnicos. Ha sido enfático sobre la importancia de regular la inteligencia artificial para mantener la fuerza y el poder del software fuera de las manos equivocadas, como estafadores informáticos, abusadores en línea, matones y campañas de desinformación. Pero es difícil encontrar un terreno común. Incluso mientras apoya una mayor regulación, Altman tiene problemas con las propuestas de regulación del Acta de IA de la Unión Europea, la primera ley integral de IA del mundo, sobre términos como transparencia de datos y entrenamiento. Mientras tanto, la Casa Blanca ha delineado un proyecto de ley para los derechos de la IA, que enfatiza la discriminación algorítmica, la privacidad de los datos, la transparencia y las alternativas humanas como áreas clave que necesitan regulación.
Suscríbase a la newsletter Eye on AI para mantenerse al tanto de cómo la IA está dando forma al futuro de los negocios. Regístrese gratis.