Por primera vez, tal y como informa New Scientist, Na Yang y Emre Eskimez, dos graduados de la Universidad de Rochester (Nueva York) que han concebido un software que capta e interpreta las emociones más sutiles en las palabras de las personas, y además lo hace mejor que los propios seres humanos.
El sistema obtubo un 72 % de acierto al clasificar el sentido emocional de 700 grabaciones, lo que superó al grupo de humanos para hacer lo mismo, que obtuvo un 60 % de éxitos.
El software identifica características de la voz (tono, timbre, intensidad, cantidad, energía…). Estas emociones (felicidad, tristeza, ira, miedo, disgusto o neutralidad) son la única información que el software posee de antemano.
La psicóloga Melissa Sturge-Apple, también de la Universidad de Rochester, pretende usar esta herramienta para comprender mejor las emociones presentes en las relaciones entre padres e hijos.
Con todo, el software parte de cierta ventaja que no se daría siempre en el mundo real: los humanos identificamos las emociones no solo a través del sonido de la voz, sino de otras señales visuales. Ani Nenkova, una científico de la computación en la Universidad de Pennsylvania, pues, no se sorprende tanto de que el software de Yang venciera a los seres humanos.
Imagen | peyri
Ver 2 comentarios