Las empresas están experimentando con la integración de inteligencia artificial en todos los ámbitos, y una tendencia inesperada es que las empresas recurran a la IA para ayudar a sus recién encontrados bots a comprender mejor la emoción humana.
Se trata de un área llamada «IA emocional», según el nuevo informe de investigación tecnológica emergente del Enterprise Saas de PitchBook que predice que esta tecnología está en alza.
La razón es algo así: si las empresas despliegan asistentes de IA para ejecutivos y empleados, convierten a los chatbots de IA en vendedores de primera línea y representantes de servicio al cliente, ¿cómo puede tener un buen desempeño un IA si no entiende la diferencia entre un «¿Qué quieres decir con eso?» enojado y un «¿Qué quieres decir con eso?» confundido?
La IA emocional pretende ser el hermano más sofisticado del análisis de sentimientos, la tecnología pre-IA que intenta extraer la emoción humana de las interacciones basadas en texto, especialmente en redes sociales. La IA emocional es lo que podría llamarse multimodal, empleando sensores para inputs visuales, de audio y otros combinados con aprendizaje automático y psicología para intentar detectar la emoción humana durante una interacción.
Los principales proveedores de servicios en la nube de IA ofrecen servicios que brindan a los desarrolladores acceso a capacidades de IA emocional, como el servicio Emotion API de Microsoft Azure Cognitive Services o el servicio Rekognition de Amazon Web Services. (Este último ha tenido su parte de controversias a lo largo de los años.)
Si bien la IA emocional, incluso cuando se ofrece como un servicio en la nube, no es algo nuevo, el repentino aumento de bots en la fuerza laboral le da más futuro en el mundo empresarial de lo que nunca había tenido antes, según PitchBook.
«Con la proliferación de asistentes de IA e interacciones totalmente automatizadas entre humanos y máquinas, la IA emocional promete habilitar interpretaciones y respuestas más humanas», escribe Derek Hernandez, analista senior de tecnología emergente en el informe de PitchBook.
«Las cámaras y los micrófonos son partes integrales del hardware en la IA emocional. Estos pueden estar en una computadora portátil, teléfono o ubicados individualmente en un espacio físico. Además, el hardware portable probablemente brinde otra forma de emplear la IA emocional más allá de estos dispositivos», dice Hernandez a TechCrunch. (Así que si ese chatbot de servicio al cliente pide acceso a la cámara, este puede ser el motivo.)
En este sentido, un creciente grupo de startups están siendo lanzadas para lograrlo. Esto incluye a Uniphore (con $610 millones recaudados en total, incluidos $400 millones en 2022 liderados por NEA), así como MorphCast, Voicesense, Superceed, Siena AI, AudEERING y Opsis, cada una de las cuales también han recaudado sumas modestas de varios VCs, según las estimaciones de PitchBook.
Por supuesto, la IA emocional es un enfoque muy Silicon Valley: utilizar la tecnología para resolver un problema causado por el uso de la tecnología con humanos.
Pero incluso si la mayoría de los bots de IA eventualmente adquirirán algún tipo de empatía automatizada, eso no significa que esta solución realmente funcione.
De hecho, la última vez que la IA emocional se convirtió en un tema de gran interés en Silicon Valley, alrededor del marco temporal de 2019 cuando gran parte del mundo de la IA/APR aún estaba centrado en la visión por computadora en lugar del lenguaje generativo y el arte, los investigadores arrojaron un poco de luz sobre la idea. Ese año, un equipo de investigadores publicó una meta-revisión de estudios y concluyó que las emociones humanas no pueden determinarse realmente mediante movimientos faciales. En otras palabras, la idea de que podemos enseñar a una IA a detectar los sentimientos de un humano al hacer que imite cómo otros humanos intentan hacerlo (leyendo rostros, lenguaje corporal, tono de voz) está algo equivocada en su suposición.
También está la posibilidad de que la regulación de la IA, como la Ley de IA de la Unión Europea, que prohíbe sistemas de detección de emociones basados en visión por computadora para ciertos usos como la educación, ponga fin a esta idea. (Algunas leyes estatales, como la BIPA de Illinois, también prohíben la recolección de lecturas biométricas sin permiso.)
Todo esto nos da una visión más amplia de este futuro de IA en todas partes que Silicon Valley está construyendo con locura en este momento. Ya sea que estos bots de IA intenten comprender emocionalmente para realizar trabajos como servicio al cliente, ventas y recursos humanos, y todas las demás tareas que los humanos esperan asignarles, o tal vez no sean muy buenos en ninguna tarea que realmente requiera esa capacidad. Quizás lo que estamos viendo es una vida laboral llena de bots de IA en un nivel similar al de Siri alrededor de 2023. En comparación con un bot que requiera gestión adivinando los sentimientos de todos en tiempo real durante las reuniones, ¿quién puede decir cuál es peor?