Las máquinas ya reconocen el estado de ánimo de las personas
Científicos de la Universidad de Granada han logrado que la máquina reconozca el enfado, el aburrimiento y la duda a partir de la integración de parámetros acústicos (como el tono de voz, la velocidad con la que se habla o la duración de las pausas) con información acerca del desarrollo del diálogo. Así, en colaboración con la Universidad Carlos III de Madrid, se ha desarrollado un nuevo sistema informático que permite a una máquina reconocer automáticamente cuál es el estado de ánimo de una persona que se está comunicando oralmente con ella, y adaptar en consecuencia la forma de responderle. Gracias a este nuevo avance, la máquina podrá determinar cómo se siente el usuario (emoción) y cómo pretende continuar con el diálogo (intención).
Para detectar el estado emocional del usuario, los investigadores se centraron en las emociones negativas del mismo que pueden hacer que se frustre al hablar con un sistema automático. En concreto, su trabajo ha considerado el enfado, el aburrimiento y la duda. Para detectarlas automáticamente, utilizaron información sobre el tono de voz, la velocidad con la que se habla, la duración de las pausas, la energía de la señal de voz y así hasta un total de 60 parámetros acústicos distintos.
Comprobar Lotería de Navidad 2024
Por otra parte, también emplearon información acerca de cómo se ha desarrollado el diálogo para ajustar la probabilidad de que un usuario esté en un estado emocional u otro. Por ejemplo, el que el sistema no haya reconocido bien varias veces lo que su interlocutor desea decirle, o le ha pedido al usuario que repita información que ya había proporcionado, pueden ser factores que hagan que el usuario se enfade o se aburra de interactuar con el sistema.
Acciones más probables
Además, señalan los autores de este trabajo, es importante que la máquina pueda prever cómo se va a desarrollar el resto del diálogo. “Para ello, hemos desarrollado un método estadístico, que aprende de diálogos previos cuáles son las acciones más probables que puede tomar un usuario en cada momento”, destacan.
Una vez que se han detectado tanto emoción como intención, los científicos de la UGR proponen adaptar automáticamente el diálogo a la situación que atraviesa el usuario. Por ejemplo, si tiene dudas se le puede dar una ayuda más detallada, mientras que si se aburre esto puede ser contraproducente.
Los autores han definido las pautas para conseguir esta adaptación, realizando una evaluación empírica con usuarios reales en la que se demuestra que el sistema adaptable funciona mejor en términos objetivos (por ejemplo, produce diálogos más cortos y con mayor éxito) y es percibido como más factible por los usuarios.
Este trabajo ha sido realizado por los profesores Zoraida Callejas y Ramón López-cózar, del Departamento de Lenguajes y Sistemas Informáticos de la Universidad de Granada, en colaboración con el profesor David Griol, del Departamento de Informática de la Universidad Carlos III de Madrid. Todos ellos son miembros del grupo de investigación de Sistemas de Diálogo Hablado y Multimodal (SISDIAL), y este logro se enmarca en el área de la computación afectiva (sistemas informáticos que son capaces de procesar y/o responder a la emoción del usuario), en la que trabajan desde hace años.