Una gramática de las emociones

Los humanos somos mentirosos por naturaleza, pero la mayoría no lo hacemos muy bien. El problema no es lo que decimos, sino lo que no sabemos que decimos. Cuando hablamos con naturalidad solemos poner caras, hacer aspavientos, encoger los hombros o inclinar el torso, pero al mentir adoptamos una rigidez cadaverina que se nos nota a 20 metros. 

La clase alta británica tiene fama de hablar sin mover las manos —hay quien lo hace sin mover ni los labios—, pero esa actitud no ayuda a un lord ni a una lady a convencer a nadie. Parece que están mintiendo, justamente, aun cuando no sea el caso. 

Una gramática de las emociones

Fuera de esa élite que juega al cricket y lleva unos sombreros indescriptibles en Ascot, sin embargo, los humanos expresamos con el cuerpo casi tanto, o a veces más, que moviendo la lengua. ¿Creías que esto iba a quedar excluido de la jurisdicción de las matemáticas? Error. ¿Y de las ciencias de la computación? Más error aún.

Imagina una bailarina profesional ejecutando unos movimientos delante de una insulsa pantalla verde. Ahora le pides que se mueva expresando felicidad, enfado, satisfacción, miedo, tristeza, lo que sea. 

La bailarina lleva un traje de la firma XSENS equipado con 17 sensores que registran todos sus movimientos y las relaciones entre ellos y los digitaliza con un software avanzado. Ese es exactamente el experimento que ha hecho un equipo multidisciplinar coordinado por el Instituto Max Planck de Estética Empírica. 

Oh, sí, ese instituto existe, y está en Fráncfort. Con todos esos datos, la neuropsicóloga cognitiva Julia Christensen y sus colegas han creado un software llamado Emokine que puede analizar a gran escala los movimientos del conjunto del cuerpo relacionados con las emociones. 

En este caso son movimientos muy controlados —producidos por una bailarina profesional—, pero Emokine ya está disponible para cualquier investigación relacionada. 

La intención de Christensen es reunir muchos más datos que se obtengan con su software en cualquier lugar del mundo. La científica del Max Planck está convencida de que las secuencias complejas de movimientos ayudarán a avanzar en la investigación de las emociones.

Es mucho más fácil mentir con el habla que con el cuerpo. Si viéramos las tripas matemáticas de Emokine acabaríamos mareados por los conceptos que usa la máquina para deducir las emociones que estamos expresando con el lenguaje corporal: velocidad lineal, aceleración lineal, velocidad angular, aceleración angular, momento lineal, grado de contracción de las piernas, distancia al centro de gravedad del cuerpo (no tan permanente como querría Battiato), sacudida integral, ángulo de la cabeza tanto a los lados como de frente y espacio convexo del cráneo, todo ello con su media, su mediana, su valor máximo y su desviación absoluta y registrado 240 veces por segundo. Ya te dije que te ibas a marear.

Es posible que nuestro cerebro haga algunos de esos cálculos para descifrar el lenguaje corporal de la gente, aunque desde luego no somos conscientes de ello. Pero no somos conscientes de casi nada lo que subyace a nuestra percepción y nuestra actividad mental. 

Como abrimos los ojos y vemos lo que hay ahí delante sin el menor esfuerzo, solemos infravalorar gravemente el formidable problema computacional que ello supone. 

En cualquier caso, es muy probable que Emokine, la criatura de la doctora Christensen y el Instituto Max Planck de Estética Empírica, aprenda pronto a entender el lenguaje corporal mejor que nosotros. Es decir, para leer nuestras emociones mejor que nosotros.

Salvo algún ingeniero grillado de Silicon Valley, ningún científico cree que las máquinas tengan emociones. Quizá algún día lleguen a tenerlas, aunque no estamos ahí ni de lejos. Pero una cosa es tener emociones y otra muy distinta es reconocerlas. Lo segundo está cada vez más cerca, así que ve aprendiendo a mover las manos.