Reconocimiento de emociones mediante IA

A día de hoy, los robots simplemente actúan y reaccionan en base a las percepciones que obtienen del medio. Actualmente, podemos interactuar con ellos mediante el habla, gestos y periféricos, como el teclado o el ratón. Pero, ¿es posible que un robot detecte con precisión la emoción de las personas?. Esta sería una interacción que, para las personas, nos es intrínseca e intuitiva pero en el mundo de la robótica no es el caso. Gracias a los algoritmos de detección de los puntos característicos de la cara (Cootes y Taylor, 2004) podemos entrenar modelos (Sohail y Bhattacharya, 2006) estadísticos que, basados en la distancia entre estos puntos, clasifiquen el estado emocional de la persona a partir de una imagen facial.

Emoticonos representando emociones
Emoticonos representando emociones. Source: Openclipart

El resultado de esta percepción es un dato cualitativo que puede ser usado en muchos ámbitos. Uno de ellos podría ser aquél donde el robot necesite tomar decisiones teniendo en cuenta el estado emocional que la persona transmite. Un ejemplo podría ser un robot asistente para la tercera edad que podría aprender del entorno si sus acciones son percibidas positiva o negativamente por la persona a la que asiste. Otro ámbito al cual podríamos aplicar esta nueva forma de interacción sería en una tienda donde las cámaras detectaran el nivel de satisfacción de los clientes respecto a los productos que visualizan o saber cómo reaccionan cuando visitan su establecimiento.

Con todas estas aplicaciones, y posiblemente otras ideas que todavía no hayan sido planteadas, se nos abre un abanico de posibilidades respecto a la interacción con robots o incluso de monitorización de actividades dentro del movimiento “quantified self”.

En conclusión, podemos afirmar que esta nueva forma de percibir e interactuar con los robots puede permitir que éstos se “humanicen” y aprendan a interpretar sin ambigüedades expresiones no verbales tan simples como pueden ser un guiño o una sonrisa.