Sí, no pone facial en el título, pone oral. Hace tiempo que llegaron
al mundo del neuromaketing múltiples herramientas para reconocimiento facial
(ahora sí) de emociones. En muchas ocasiones desde este mismo blog he sostenido
que esta herramienta es muy útil como apoyo en algunos trabajos, pero no debe
ser la herramienta principal, mucho menos la única en ninguno. Al margen de que
técnicamente un software concreto pueda ser más o menos preciso, el argumento
de no basar el trabajo en esta utilidad no es la calidad técnica o
tecnológica del software, sino de fundamento de la propia herramienta en sí.
Bien esté basada en la clasificación de emociones de Ekman (la mayoría) o en
cualquier otra, tengamos en cuenta que pese a que no hay duda de que algunas
emociones “vienen de serie” en el ser humano, no está tan claro exactamente
cuáles son ni de que siempre que aparezca una de ellas se exprese facialmente
de la misma forma. Lo que sí parece estar algo más claro es lo contrario, hay
determinadas expresiones que parecen correlacionarse con determinadas
emociones.
La búsqueda de formas de medir emociones es algo que
ocupa buena parte del interés de aquellos que estudian la conducta humana. De
hecho, una parte en absoluto despreciable del neuromarketing tiene precisamente
como objetivo determinar de forma objetiva qué siente el target, con lo que al
gran grupo de los que estudian la conducta humana, se les unen los que la estudian cuando compran, en la búsqueda de métodos para medir
emociones.
A todos nos ha pasado que por el tono de voz de alguna
persona sabemos si está bien o no. Si ya hay (y no pocas) herramientas para el
análisis de emociones a partir de textos fudamentalmente en redes sociales,
¿por qué no analizar emociones a partir de la voz?
Ese es precisamente el propósito de las herramientas de
análisis oral de emociones, detectar qué emociones subyacen más que a
determinadas expresiones, a determinadas formas de expresar algo en un momento
concreto.
El problema que, de momento, plantea este tipo de
utilidades es que en cuanto a la voz existe un patrón mucho menos claro incluso que en
el reconocimiento facial, con lo que el desarrollo de estas herramientas se
complica. Donde sí están empezando a tener una implantación importante es
usando inteligencia artificial en lugares donde las mismas personas pasan mucho
tiempo hablando, por ejemplo, en call centers. En dichos lugares el software va
aprendiendo con el paso de los días sobre la voz de cada uno de los
teleoperadores, aprendiendo a captar matices de su ritmo, tono de
voz, etc. De esta forma, el reconocimiento oral de emociones se puede usar como
herramienta complementaria en estos centros para hacer un análisis de las
emociones expresadas tanto por los operadores como por aquellas personas que
hacen uso habitual de ellos, como puede ser teléfonos de apoyo psicológico.
Sin duda un campo prometedor que a día de hoy es
demasiado incipiente como para su uso se generalice y se convierta en
herramienta de apoyo habitual, pero que avanza a buen ritmo.
No hay comentarios:
Publicar un comentario