Cuando los humanos intentamos descubrir cómo se siente alguien, utilizamos mucha información: expresiones faciales, lenguaje corporal y dónde se encuentra esa persona, entre otras cosas. Cuando las computadoras intentan hacer lo mismo, tienden a enfocarse solo en la cara. Eso es un gran defecto. Así lo indica un estudio publicado recientemente, el cual sugiere que la mayoría de las afirmaciones hechas por compañías de “reconocimiento de emociones” están equivocadas.
En una nota de publicada en MIT Technology Review, Angela Chen señala que el reconocimiento de emociones (o el uso de la tecnología para analizar expresiones faciales e inferir sentimientos) es un negocio que representa cerca de $20.000 millones. Grandes compañías como Microsoft y Apple, así como empresas especializadas, como Kairos y Affectiva, están participando.
Aunque la tecnología de reconocimiento de emociones se utiliza más comúnmente para vender productos, también ha aparecido en la contratación de personal y como una posible herramienta para determinar si alguien está tratando de cometer un fraude de seguros. En 2003, la Administración de Seguridad del Transporte de los Estados Unidos comenzó a capacitar a los humanos para detectar posibles terroristas al “leer” sus expresiones faciales, por lo que es fácil imaginar un proyecto de inteligencia artificial que intente lo mismo.
Ahora bien, durante años, ha habido un rechazo cada vez mayor contra la creencia de que las expresiones faciales son un reflejo de los sentimientos. Un grupo de científicos reunidos por la Asociación para la Ciencia Psicológica pasó dos años revisando más de 1.000 artículos sobre detección de emociones. Se enfocaron en investigar cómo las personas mueven sus caras cuando sienten ciertas emociones y cómo deducen los estados emocionales de otras personas. El grupo llegó a la conclusión de que es muy difícil usar las expresiones faciales solo para decir con precisión cómo se siente alguien.
Según los investigadores, la gente sonríe cuando está contenta y frunce el ceño cuando está triste, pero la correlación es débil. Lisa Feldman Barrett, psicóloga de la Universidad Northeastern y coautora del estudio, señala que las personas hacen muchas otras cosas cuando también están felices o tristes, y una sonrisa puede ser irónica.
“Sus comportamientos varían mucho según las culturas y las situaciones, y el contexto juega un papel importante en la forma en que interpretamos las expresiones. Por ejemplo, en estudios donde alguien colocó una imagen de una cara positiva en el cuerpo de alguien en una situación negativa, las personas experimentaron la cara como más negativa”, indica.
En resumen, la experta dice que las expresiones que hemos aprendido a asociar con emociones son estereotipos, y la tecnología basada en esos estereotipos no proporciona muy buena información.
“Hacer que el reconocimiento de emociones sea correcto es costoso y requiere la recopilación de una gran cantidad de datos extremadamente específicos. Nadie lo ha hecho hasta ahora”, dice.