Una sonrisa tonta puede que no sea más que el reflejo oculto de una gran agonía vital. Lo entenderemos mejor si observamos una de las escenas del actor James Franco en ‘127 horas’, una película inspirada en una dramática historia de supervivencia. Sólo cuando la cámara se aleja y deja a la vista el brazo aplastado bajo una enorme roca, el espectador es consciente de lo que puede estar sintiendo el protagonista a pesar de su risa bobalicona.
Desafiando la inteligencia emocional
Un estudio de la Universidad de Berkeley, en California, confirma que, cuando se trata de leer el estado emocional de un ser humano, el contexto visual, el fondo y la acción son tan importantes como las expresiones faciales o su lenguaje corporal. Los hallazgos, que aparecerán esta semana en la revista Proceedings de la Academia Nacional de Ciencias, suponen un desafío para décadas de investigación en las que se ha mantenido que la inteligencia emocional y el reconocimiento facial se basan en gran medida en la capacidad de leer microexpresiones indicadoras de felicidad, tristeza, enojo, miedo y sorpresa, asco, desprecio y otros estados de ánimo positivos o negativos.
“Nuestro estudio revela que el reconocimiento de las emociones es, en el fondo, una cuestión de contexto tanto como de caras”, dice el autor principal, Zhimin Chen, estudiante de doctorado en Psicología de la universidad californiana. Los investigadores difuminaron las caras y los cuerpos de los actores en docenas de escenas de películas y videos caseros de Hollywood. A los participantes del estudio se les pidió que leyeran sus emociones teniendo en cuenta su interacción con el entorno.
El método de Chen es capaz de recopilar grandes cantidades de datos en poco tiempo y, eventualmente, podría usarse para ayudar a interpretar las emociones a personas con trastornos como el autismo y la esquizofrenia, lo que facilitaría también los diagnósticos. “Algunas personas pueden tener deficiencias en el reconocimiento de las expresiones faciales, pero son capaces de reconocer las emociones dentro de un contexto”, dijo Chen.
Según explica, “en este momento, las compañías están desarrollando algoritmos de aprendizaje automático para reconocer emociones, pero sólo entrenan a sus modelos en caras recortadas y basándose en la expresión facial. De acuerdo con este nuevo trabajo, estas formas de estudio de los estados de ánimo daría resultados totalmente imprecisos.
Fuente: Universidad de Berkeley, California.
Marian Benito