Los usuarios de redes sociales se convierten en equipos rojos para las características de IA mal concebidas usando memes

Los usuarios de redes sociales se convierten en equipos rojos para las características de IA mal concebidas usando memes

Correr con tijeras es un ejercicio cardiovascular que puede aumentar tu ritmo cardíaco y requerir concentración y enfoque, según la nueva función de búsqueda de AI de Google. «Algunos dicen que también puede mejorar tus poros y darte fuerza». Esta respuesta fue extraída por la función de AI de Google de un sitio web llamado Little Old Lady Comedy, un blog de comedia. Sin embargo, el error es tan ridículo que ha estado circulando en redes sociales, junto con otras descripciones obviamente incorrectas de AI en Google. De hecho, los usuarios comunes ahora están poniendo a prueba estos productos en redes sociales.

En ciberseguridad, algunas empresas contratan «equipos rojos» – hackers éticos – que intentan vulnerar sus productos como si fueran actores malintencionados. Si un equipo rojo encuentra una vulnerabilidad, entonces la empresa puede corregirla antes de que el producto se lance. Google ciertamente realizó una forma de prueba de «equipo rojo» antes de lanzar un producto de AI en Google Search, que se estima que procesa trillones de consultas al día.

Es sorprendente, entonces, cuando una empresa tan bien dotada como Google sigue lanzando productos con fallas obvias. Es por eso que ahora se ha convertido en un meme burlarse de los fallos de los productos de AI, especialmente en un momento en que la AI se está volviendo más ubicua. Hemos visto esto con errores de ortografía en ChatGPT, fallos de generadores de video al entender cómo comen espaguetis los humanos, y resúmenes de noticias de Grok AI en X que, al igual que Google, no entienden la sátira. Pero estos memes podrían en realidad servir como retroalimentación útil para las empresas que desarrollan y prueban AI.

A pesar de la naturaleza destacada de estos fallos, las empresas tecnológicas a menudo minimizan su impacto. «Los ejemplos que hemos visto son generalmente consultas muy poco comunes y no son representativos de la mayoría de las experiencias de las personas», dijo Google a TechCrunch en una declaración por correo electrónico. «Realizamos extensas pruebas antes de lanzar esta nueva experiencia y utilizaremos estos ejemplos aislados a medida que continuamos refinando nuestros sistemas en general».

No todos los usuarios ven los mismos resultados de AI, y para cuando una sugerencia de AI particularmente mala se difunde, el problema a menudo ya ha sido corregido. En un caso más reciente que se volvió viral, Google sugirió que si estás haciendo pizza pero el queso no se pega, podrías agregar unas octavas partes de taza de pegamento a la salsa para «darle más pegajosidad». Resulta que la AI está tomando esta respuesta de un comentario de Reddit de hace once años de un usuario llamado «f – smith».

Más allá de ser un error increíble, también señala que los acuerdos de contenido de AI pueden estar sobrevalorados. Google tiene un contrato de 60 millones de dólares con Reddit para licenciar su contenido para el entrenamiento de modelos de AI, por ejemplo. Reddit firmó un acuerdo similar con OpenAI la semana pasada, y se rumorea que las propiedades de Automattic WordPress.org y Tumblr están en conversaciones para vender datos a Midjourney y OpenAI.

Para crédito de Google, muchos de los errores que circulan en redes sociales provienen de búsquedas no convencionales diseñadas para confundir a la AI. Al menos espero que nadie esté buscando seriamente «los beneficios para la salud de correr con tijeras». Pero algunos de estos errores son más graves. La periodista científica Erin Ross publicó en X que Google ofreció información incorrecta sobre qué hacer si te muerde una serpiente de cascabel.

La publicación de Ross, que obtuvo más de 13,000 me gusta, muestra que la AI recomendó aplicar un torniquete en la herida, cortar la herida y succionar el veneno. Según el Servicio Forestal de Estados Unidos, estas son todas cosas que no debes hacer si te muerden. Mientras tanto, en Bluesky, la autora T Kingfisher amplió una publicación que muestra al Gemini de Google mal identificando un hongo venenoso como un hongo común blanco – capturas de pantalla de la publicación se han propagado a otras plataformas como una advertencia.

Cuando una mala respuesta de AI se vuelve viral, la AI podría confundirse más por el nuevo contenido que surge alrededor del tema como resultado. El miércoles, el periodista del New York Times Aric Toler publicó una captura de pantalla en X que muestra una consulta preguntando si un perro ha jugado alguna vez en la NHL. La respuesta de la AI fue sí – por alguna razón, la AI llamó al jugador de los Calgary Flames, Martin Pospisil, un perro. Ahora, cuando haces esa misma consulta, la AI muestra un artículo de Daily Dot sobre cómo la AI de Google sigue pensando que los perros están jugando deportes. La AI está siendo alimentada por sus propios errores, envenenándola aún más.

Este es el problema inherente de entrenar estos modelos de AI a gran escala en Internet: a veces, la gente en Internet miente. Pero al igual que no hay reglas en contra de que un perro juegue al baloncesto, desafortunadamente no hay reglas en contra de que las grandes empresas tecnológicas lancen productos de AI deficientes.

Como dice el refrán: basura entra, basura sale.