SOCIAL

Las expresiones faciales por si solas no pueden transmitir el estado emocional de una persona

Curación de Contenido por Gustavo Novelo

Una nueva investigación aclara que la inteligencia emocional implica mucho más que leer las microexpresiones de las personas. Cuando se trata de leer el estado mental de una persona, el contexto visual de los antecedentes así como la acción es tan importante como las expresiones faciales y el lenguaje corporal.

Investigadores de la Universidad de California, Berkeley, dan el ejemplo del actor James Franco en la película nominada al Oscar “127 hours”. En una escena, Franco se ve vagamente feliz mientras graba un diario de video en la película. Pero cuando la cámara se aleja, la audiencia ve que su brazo está aplastado debajo de una roca, y que su sonrisa oculta su agonía.

El nuevo punto de vista desafía décadas de investigación que postulan que la inteligencia emocional y el reconocimiento se basan en gran medida en la capacidad de leer microexpresiones faciales. Se creía que las expresiones eran un indicador de felicidad, tristeza, ira, miedo, sorpresa, disgusto, desprecio así como otros estados de ánimo y sentimientos positivos como tambien negativos.

El nuevo estudio, que aparece en la revista Proceedings of the National Academy of Sciences, sugiere que la detección emocional requiere más que una “lectura” facial.

“Nuestro estudio revela que el reconocimiento de las emociones es, en el fondo, una cuestión de contexto cuando se trata de caras”, dijo el autor principal Zhimin Chen, un estudiante de doctorado en psicología de la Universidad de California en Berkeley.

En el estudio, los investigadores difuminaron los rostros y cuerpos de los actores en docenas de clips silenciados de películas de Hollywood y videos caseros. A pesar de la invisibilidad virtual de los personajes, cientos de participantes del estudio pudieron leer con precisión sus emociones al examinar el fondo y cómo interactuaban con su entorno.

El modelo de “seguimiento afectivo” que Chen creó para el estudio permite a los investigadores realizar un seguimiento de cómo las personas califican las emociones de momento a momento de los personajes cuando ven videos.

El método de Chen es capaz de recopilar grandes cantidades de datos en poco tiempo y, eventualmente, podría usarse para evaluar cómo las personas con trastornos como el autismo y la esquizofrenia leen las emociones en tiempo real y ayudan con sus diagnósticos.

“Algunas personas pueden tener deficiencias en el reconocimiento de las expresiones faciales, pero pueden reconocer las emociones del contexto”, dijo Chen. “Para otros, es todo lo contrario”.

Además, los hallazgos, basados ​​en análisis estadísticos de las calificaciones recopiladas, podrían informar el desarrollo de la tecnología de reconocimiento facial.

“En este momento, algunas compañías están desarrollando algoritmos de aprendizaje automático para reconocer emociones, pero solo entrenan a sus modelos en caras recortadas y esos modelos solo pueden leer las emociones de las caras”, comento Chen. “Nuestra investigación muestra que los rostros no revelan emociones verdaderas con mucha precisión y que la identificación del estado de ánimo de una persona también debería tener en cuenta el contexto”.

Para el estudio, Chen y el coautor del estudio, el Dr. David Whitney, científico y profesor de psicología de la Universidad de Berkeley en la Universidad de Berkeley, probaron las capacidades de reconocimiento de emociones de casi 400 adultos jóvenes. Los estímulos visuales que utilizaron fueron videoclips de varias películas de Hollywood, así como documentales y videos caseros que mostraban respuestas emocionales en entornos más naturales.

Los participantes del estudio se conectaron en línea para ver y calificar los videoclips. Se superpuso una cuadrícula de calificación sobre el video para que los investigadores pudieran rastrear el cursor de cada participante del estudio a medida que se movía por la pantalla, procesando información visual y evaluando las emociones de momento a momento.

“En general, los resultados sugieren que el contexto es necesario para percibir la emoción de una persona”, dijo Whitney, profesora de psicología de la UC Berkeley. “Hay que enfrentarlo, el rostro no es suficiente para percibir las emociónes”.

Fuente: Universidad de California Berkeley

Deja un comentario