Google arreglará el robot de imágenes con IA después de las críticas que «despertaron»

Google arreglará el robot de imágenes con IA después de las críticas que «despertaron»


Google se apresura a solucionar su nueva herramienta impulsada por inteligencia artificial para crear imágenes, luego de afirmaciones de que estaba corrigiendo en exceso contra el riesgo de ser racista.

Los usuarios dijeron que el bot Gemini de la empresa suministraba imágenes que representaban una variedad de géneros y etnias incluso cuando hacerlo era históricamente inexacto.

Por ejemplo, una solicitud de imágenes de los padres fundadores de Estados Unidos mostró mujeres y personas de color.

La compañía dijo que su herramienta estaba «perdiendo el rumbo».

«La generación de imágenes de inteligencia artificial de Gemini genera una amplia gama de personas. Y eso generalmente es algo bueno porque personas de todo el mundo lo usan. Pero aquí está perdiendo el rumbo», dijo Jack Krawczyk, director senior de Experiencias Gemini, el miércoles.

«Estamos trabajando para mejorar este tipo de representaciones de inmediato», agregó.

Google luego dijo que suspendería la capacidad de la herramienta para generar imágenes de personas mientras trabajaba en la solución.

No es la primera vez que la inteligencia artificial tropieza con preguntas del mundo real sobre diversidad.

Por ejemplo, Google tuvo que disculparse hace casi una década después de que su aplicación de fotos etiquetara una foto de una pareja negra como «gorilas».

La firma rival de inteligencia artificial, OpenAI, también fue acusada de perpetuar estereotipos dañinos, luego de que los usuarios encontraran que su generador de imágenes Dall-E respondía a consultas sobre directores ejecutivos, por ejemplo, con resultados dominados por imágenes de hombres blancos.

Google, que está bajo presión para demostrar que no se está quedando atrás en los desarrollos de inteligencia artificial, lanzó su última versión de Gemini la semana pasada.

El bot crea imágenes en respuesta a consultas escritas.

Rápidamente atrajo críticas, que acusaban a la empresa de entrenar al bot para ser risiblemente «despierto».

«Es vergonzosamente difícil hacer que Google Gemini reconozca que existen personas blancas», escribió el científico informático Debarghya Das.

«Vamos», dijo Frank J. Fleming, autor y humorista que escribe para medios como el conservador PJ Media, en respuesta a los resultados que recibió al pedir una imagen de un vikingo.

Las afirmaciones cobraron velocidad en círculos de derecha en Estados Unidos, donde muchas plataformas tecnológicas enfrentan críticas por presunto sesgo liberal.

El Sr. Krawczyk dijo que la compañía tomaba en serio la representación y el sesgo y quería que sus resultados reflejaran su base de usuarios global.

«Los contextos históricos tienen más matices y ajustaremos aún más para acomodar eso», escribió en X, anteriormente Twitter, donde los usuarios compartían los resultados dudosos que habían recibido.

«Esto es parte del proceso de alineación: iteración sobre comentarios. ¡Gracias y sigan viniendo!»