Un equipo de investigadores de le Universidad de Rochester (EEUU) está trabajando en una aplicación que detecta cómo se siente una persona con tan solo escuchar su voz, más precisamente identificando cómo dice lo que dice, sin importar el contenido.
Wendi Hainzelman, integrante del equipo creador del algoritmo, explica: "Estamos empleando grabaciones de actores leyendo fechas en el calendario, ya lo que nos interesa no es el contenido sino la forma de decirlo".
"Por ejemplo, cuando escuchas hablar a alguien puedes darte cuenta de que está enfadado, las emociones afectan nuestra forma de hablar y alteran el volúmen, el tono y la armonía del habla", agrega la psicóloga Melissa Sturge-Apple, que está colaborando en la investigación.
Características como estas son las que analiza el programa ( doce en total ), para identificar cinco emociones básicas: miedo, enojo, tristeza, felicidad, y neutralidad, y en las pruebas ha obtenido un 81% de exactitud en el diagnóstico cuando se lo "entrena" para una determinada voz, aunque aún no alcanza tanta efectividad cuando se emplean diferentes voces.
No hay comentarios:
Publicar un comentario