AI no está listo para el horario estelar

AI no está listo para el horario estelar

Herramientas de IA como ChatGPT se han vuelto comunes, y las empresas detrás de estas tecnologías están invirtiendo miles de millones de dólares en la apuesta de que cambiarán la forma en que vivimos y trabajamos.

Pero junto con esa promesa, surgen constantemente titulares preocupantes, algunos resaltando el potencial de la IA para generar sesgos o inexactitudes al responder a nuestras preguntas o comandos. Se ha alegado que las herramientas de IA generativa, incluido ChatGPT, violan derechos de autor. Algunas, de manera perturbadora, se han utilizado para generar imágenes íntimas no consensuales.

Más recientemente, el concepto de «deepfakes» llamó la atención cuando imágenes pornográficas generadas por IA de Taylor Swift se difundieron en las redes sociales, destacando el potencial perjudicial de la tecnología de inteligencia artificial en el ámbito público.

El presidente Joe Biden instó al Congreso durante su discurso del Estado de la Unión en 2024 a aprobar legislación para regular la inteligencia artificial, incluida la prohibición de «la suplantación de voz mediante IA y más». Dijo que los legisladores deben «aprovechar la promesa de la IA y protegernos de sus peligros», advirtiendo sobre los riesgos de la tecnología para los estadounidenses si se deja sin control.

Su declaración siguió a una reciente campaña falsa de robocalls que imitó su voz y se dirigió a miles de votantes en las elecciones primarias de Nuevo Hampshire en lo que las autoridades han descrito como un intento de interferencia electoral habilitado por la IA. A pesar de las advertencias de expertos en desinformación sobre las amenazas de la IA a las elecciones y el discurso público, pocos esperan que el Congreso apruebe legislación que limite la industria de la IA durante un año electoral divisivo.

Esto no detiene a las grandes empresas de tecnología y las firmas de IA, que continúan atrayendo a consumidores y empresas con nuevas características y capacidades.

Más recientemente, el creador de ChatGPT, OpenAI, introdujo un nuevo modelo de IA llamado Sora, que afirma puede crear videos de 60 segundos «realistas» e «imaginativos» a partir de breves indicaciones de texto. Microsoft ha añadido su asistente de IA, Copilot, que se ejecuta en la tecnología que respalda a ChatGPT, a su conjunto de productos, incluyendo Word, PowerPoint, Teams y Outlook, software que muchas empresas utilizan en todo el mundo. Y Google presentó Gemini, un chatbot de IA que ha comenzado a reemplazar la función de Asistente de Google en algunos dispositivos Android.

Expertos preocupados
Investigadores de inteligencia artificial, profesores y expertos legales están preocupados por la adopción masiva de la IA antes de que los reguladores tengan la capacidad o la voluntad de controlarla. Cientos de estos expertos firmaron una carta esta semana pidiendo a las empresas de IA que realicen cambios en sus políticas y acuerden someterse a evaluaciones independientes por razones de seguridad y responsabilidad.

«Las empresas de IA generativa deberían evitar repetir los errores de las plataformas de redes sociales, muchas de las cuales han prohibido efectivamente tipos de investigaciones destinadas a hacerlas responsables, con la amenaza de acciones legales, cartas de cesación y otros métodos para imponer efectos inhibidores en la investigación», dijo la carta.

Añadió que algunas empresas de IA generativa han suspendido cuentas de investigadores y cambiado sus términos de servicio para disuadir algunos tipos de evaluación, señalando que «desempoderar a los investigadores independientes no está en el interés de las propias empresas de IA».

La carta se publicó menos de un año después de que algunos de los nombres más importantes de la tecnología, incluido Elon Musk, pidieran que los laboratorios de inteligencia artificial dejaran de entrenar los sistemas de IA más potentes durante al menos seis meses, citando «riesgos profundos para la sociedad y la humanidad» (la pausa no ocurrió).

«Lo más preocupante que veo en torno a la IA es la brecha continua entre la promesa y la práctica», dijo Suresh Venkatasubramanian, científico de la computación y profesor en la Universidad de Brown, a CNN. «Las empresas siguen prometiendo entregar la luna cuando se trata de IA y aún proporcionan queso verde mohoso».

Venkatasubramanian, quien fue designado en la Oficina de Política de Ciencia y Tecnología de la Casa Blanca en 2021 para asesorar sobre la política de IA, es uno de los expertos que firmaron la última carta.

«El acceso a los principales sistemas de IA generativa en uso generalizado está controlado por unas pocas empresas», dijo Venkatasubramanian, señalando que estos sistemas cometen fácilmente errores y pueden producir contenido perjudicial. «Sin la capacidad de evaluar la IA de manera independiente y con el temor de amenazas legales, seguirá siendo muy difícil para los investigadores realizar el importante trabajo de evaluar la seguridad, la seguridad y la confiabilidad de los sistemas de IA generativa para que los responsables de la formulación de políticas estén bien informados para tomar medidas».

Dijo que espera que los responsables de la formulación de políticas y el trabajo realizado por la Oficina de Administración y Presupuesto de la Casa Blanca, que supervisa la visión del presidente Biden en todo el Poder Ejecutivo, aclaren y establezcan «normas de juego».

Arvind Narayanan, profesor de ciencias de la computación en Princeton, quien también firmó la carta, estuvo de acuerdo, diciendo a CNN que le preocupa especialmente la velocidad a la que la IA está acelerando, a una velocidad mucho más rápida que nuestra capacidad para adaptarnos a ella.

«Las empresas tecnológicas se han enriquecido con un modelo de negocio en el que cosechan ganancias de los beneficios de las nuevas tecnologías, mientras que los costos de esas tecnologías son soportados por la sociedad», dijo Narayanan, reconociendo que esto fue así mucho antes de la IA generativa.

«Se necesitan barandas para daños específicos, pero no solucionarán el modelo de negocio subyacente», agregó.

Él cree que pueden ser necesarias reformas más audaces, como gravar a las empresas de IA para financiar redes de seguridad social.

Por ahora, los usuarios actuales de la IA generativa deben comprender las limitaciones