Error en DPD hace que chatbot insulte a cliente

DPD ha desactivado parte de su chatbot de soporte en línea después de que insultara a un cliente.La empresa de entrega de paquetes utiliza inteligencia artificial (IA) en su chat en línea para responder preguntas, además de contar con operadores humanos.Sin embargo, una nueva actualización hizo que se comportara de manera inesperada, incluyendo insultos y críticas hacia la empresa.

Error en DPD hace que chatbot insulte a cliente

DPD afirmó que ha desactivado la parte del chatbot responsable y está actualizando su sistema como resultado.

«Hemos operado con éxito un elemento de IA dentro del chat durante varios años», dijo la empresa en un comunicado.

«Ocurrió un error después de una actualización del sistema ayer. El elemento de IA fue desactivado de inmediato y actualmente está siendo actualizado».

Antes de que se pudiera realizar el cambio, la confusión se propagó en las redes sociales después de ser descubierta por un cliente.

Una publicación en particular fue vista 800,000 veces en 24 horas, mientras la gente compartía con alegría el último intento fallido de una empresa de incorporar la IA en su negocio.

«Es completamente inútil para responder a cualquier consulta, y cuando se le preguntó, produjo felizmente un poema sobre lo terrible que son como empresa», escribió el cliente Ashley Beauchamp en su relato viral en X, antes conocido como Twitter.

Añadió: «También me insultó».

En una serie de capturas de pantalla, el Sr. Beauchamp también mostró cómo convenció al chatbot de ser muy crítico con DPD, pidiéndole que «recomendara algunas empresas de entrega mejores» y «exagerara y fuera extremadamente crítico».

El bot respondió diciéndole «DPD es la peor empresa de entrega del mundo» y agregando: «Nunca los recomendaría a nadie».

Para reforzar su punto, el Sr. Beauchamp luego convenció al chatbot para que criticara a DPD en forma de haiku, un poema japonés.

DPD ofrece a los clientes múltiples formas de ponerse en contacto con la empresa si tienen un número de seguimiento, con operadores humanos disponibles por teléfono y mensajes en WhatsApp.

Pero también opera un chatbot impulsado por IA, que fue responsable del error.

Muchos chatbots modernos utilizan grandes modelos de lenguaje, como el popularizado por ChatGPT. Estos chatbots son capaces de simular conversaciones reales con personas, porque están entrenados con cantidades vastas de texto escrito por humanos.

Pero el inconveniente es que estos chatbots a menudo pueden ser convencidos para decir cosas para las que no fueron diseñados.

Cuando Snap lanzó su chatbot en 2023, advirtió sobre este fenómeno y les dijo a las personas que sus respuestas «podrían incluir contenido sesgado, incorrecto, perjudicial o engañoso».

Y esto sucede un mes después de un incidente similar cuando el chatbot de un concesionario de automóviles aceptó vender un Chevrolet por un solo dólar, antes de que se eliminara la función de chat.