¿Por qué RAG no resolverá el problema de alucinaciones de la inteligencia artificial generativa?

Las alucinaciones, o las mentiras que los modelos generativos de inteligencia artificial cuentan, son un gran problema para las empresas que buscan integrar la tecnología en sus operaciones. Debido a que los modelos no tienen una inteligencia real y simplemente predicen palabras, imágenes, habla, música y otros datos según un esquema privado, a veces se equivocan. En un reciente artículo en The Wall Street Journal, una fuente relata un caso donde la inteligencia artificial generativa de Microsoft inventó asistentes a una reunión e insinuó que las llamadas conferencias trataban temas que en realidad no se discutieron en la llamada.

Como mencioné anteriormente, las alucinaciones pueden ser un problema insoluble con las arquitecturas de modelos basados en transformadores actuales. Sin embargo, varios proveedores de inteligencia artificial generativa sugieren que se pueden eliminar, más o menos, a través de un enfoque técnico llamado generación mejorada con recuperación, o RAG.

Así es como un proveedor, Squirro, lo presenta:
«En el centro de la oferta se encuentra el concepto de Modelos de Lenguaje de Gran Capacidad Mejorados con Recuperación o Generación Mejorada con Recuperación (RAG) integrados en la solución … [nuestra inteligencia artificial generativa] es única en su promesa de cero alucinaciones. Cada pieza de información que genera es rastreable hasta una fuente, asegurando credibilidad.»

RAG fue pionera por el científico de datos Patrick Lewis, investigador en Meta y University College London. Aplicado a un modelo, RAG recupera documentos posiblemente relevantes a una pregunta, como por ejemplo una página de Wikipedia sobre el Super Bowl, y luego pide al modelo que genere respuestas dadas este contexto adicional.

Si bien RAG es indudablemente útil, no puede detener por completo las alucinaciones de un modelo. Y tiene limitaciones que muchos proveedores pasan por alto. Wadden señala que RAG es más efectivo en escenarios «intensivos en conocimiento» donde un usuario quiere utilizar un modelo para abordar una «necesidad de información» – por ejemplo, para averiguar quién ganó el Super Bowl el año pasado.

RAG es también costoso en términos del hardware necesario para aplicarlo a escala. Los documentos recuperados, ya sea de la web, una base de datos interna u otro lugar, deben almacenarse en memoria, al menos temporalmente, para que el modelo pueda hacer referencia a ellos. Otra consideración es la potencia informática necesaria para el mayor contexto que el modelo debe procesar antes de generar su respuesta.

Es importante tener en cuenta que RAG puede ayudar a reducir las alucinaciones de un modelo, pero no es la respuesta a todos los problemas alucinatorios de la inteligencia artificial. ¡Cuidado con cualquier proveedor que intente afirmar lo contrario!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *