Tu Cara No Miente

Tecnología

En ADN México sabemos que un video no sólo se ve, sino también se siente. Las emociones tienen un papel muy importante en cómo una audiencia se conecta y reacciona a los contenidos visuales y estímulos publicitarios. Entender esa conexión emocional en tiempo real es clave para que creadores de contenido, publicistas, estrategas de marketing, investigadores y consultores en medios maximicen el impacto de sus mensajes.

¿Cómo ir más allá de las métricas tradicionales para entender la reacción real del espectador? Normalmente las campañas publicitarias se miden preguntando al consumidor cómo se sintió una vez terminado el video, es decir, cuando la memoria y el sesgo ya han actuado. La forma más directa y objetiva de conocer la respuesta emocional es observarla mientras ocurre. Aquí es donde la tecnología de "Tu Cara No Miente" de ADN México marca la diferencia.

"Tu Cara No Miente" es una innovadora plataforma de ADN México que utiliza un avanzado algoritmo para detectar y analizar expresiones faciales en tiempo real, directamente a través de la cámara web mientras el observador interactúa con el estímulo visual (un video, un anuncio, etc.).

El Sistema de Codificación

La tecnología utilizada se basa en el robusto y científicamente validado Sistema de Codificación de Acción Facial (FACS - Facial Action Coding System), un sistema desarrollado por pioneros en el estudio de las emociones, que descompone cada gesto facial en "Unidades de Acción" (AUs) específicas, que corresponden a movimientos de músculos faciales concretos, según se muestra a continuación:

AU# Nombre FACS
1Rostro neutral
2Elevador interior de la ceja
3Elevador exterior de la ceja
4Depresor de la ceja
5Elevador del párpado superior
6Elevador de la mejilla
7Tensor del párpado
8Labios juntos
9Arrugador de nariz
10Elevador del labio superior
11Ahondador nasolabial
12Tirador de la comisura del labio
13Tirador de labio afilado
14Hoyuelo de la mejilla
15Depresor de la comisura del labio
16Depresor del labio inferior
17Elevador del mentón
18Fruncimiento de labios
19Mostrar la lengua
20Estirador de labios
21Tensor de cuello
22Embudo de labios
23Tensor de labios
24Presor de labios
25Labios separados
26Caída de la mandíbula
27Estiramiento de la boca
28Succión de labios

Además de los anteriores, existen más códigos FACS, como indicadores de movimiento de cabeza, de movimiento ocular, de visibilidad o de comportamiento facial general. Cada uno de los códigos tiene 6 niveles de intensidad: indicio, leve, pronunciado, severo y máximo. También se anota si la acción ocurre sólo de un lado del rostro, o si la acción es bilateral pero es más fuerte en un lado.

Según las reacciones en las unidades de acción, se construye una tipología de emociones asociadas al arreglo, composición o combinación de movimientos faciales, según se muestra a continuación:

Emoción Unidades de acción
Sorpresa1+2+5B+26
Tristeza1+4+15
Felicidad6+12
Miedo1+2+4+5+7+20+26
Disgusto9+15+17
Enojo4+5+7+23

Tomando como ejemplo la "sorpresa", se observa que consiste en: (1) rostro neutral, (2) Elevador interior de la ceja, (5B) Elevador leve del párpado superior, y (26) Caída de la mandíbula.

La evolución de las FACS

Por más de 45 años, la lectura e interpretación de estas unidades de acción se realizó a partir de manuales y talleres enfocados a enseñar a expertos e investigadores a codificar manualmente las expresiones faciales. El proceso era lento y sólo un reducido grupo de especialistas podían aplicarlo con el rigor técnico necesario.

Pero hoy en día, gracias a los avances en computación afectiva y la inteligencia artificial, los algoritmos han mejorando de manera acelerada, permitiendo que el reconocimiento e identificación de expresiones faciales sea más preciso y en tiempo real.

La plataforma que utiliza Tu Cara No Miente, fue entrenada utilizando bases de datos masivas y diversas a nivel global, que contienen innumerables videos e imágenes de rostros y voces, meticulosamente anotados con información detallada sobre las AUs activadas (basadas en FACS) y los patrones asociados a diversas emociones y estados afectivos.

El algoritmo actual utiliza el poder del Sistema de Codificación de Acción Facial para:

1. Capturar: Registrar sutiles movimientos faciales vía cámara web a alta velocidad mientras se reproduce el video.

2. Decodificar: Interpretar estos movimientos faciales como Unidades de Acción específicas en tiempo real, y en el mismo dispositivo del observador.

3. Analizar: Identificar combinaciones de AUs que el sistema asocia con estados emocionales clave.

Así mientras el participante observa un video, la plataforma captura las reacciones faciales momento a momento, detectando la presencia e intensidad de las microexpresiones en el formato de seis emociones básicas según el modelo de Paul Ekman: Enojo, disgusto, miedo, felicidad, tristeza y sorpresa, más la expresión neutral.

Nuestra prioridad es ofrecer datos de la más alta calidad y confianza. Por ello, "Tu Cara No Miente" se centra en lo que es detectable y relevante en tiempo real durante la visualización. Además, nuestro algoritmo realiza una calibración individual para cada participante a través de la cámara web, asegurando que la lectura de emociones sea lo más precisa posible para esa persona específica.

En los dashboards globales de "Tu Cara No Miente", los usuarios encontrarán:

Gráficos en tiempo real: Visualiza la evolución e intensidad emocional segundo a segundo a lo largo del video.

Análisis comparativos: Compara la respuesta emocional entre diferentes segmentos de audiencia o versiones de tu contenido.

Datos exportables: Permite descargar los datos crudos para análisis más profundos.

Con esta nueva generación de plataformas de ADN México, los creadores de contenido, publicistas, investigadores y comunicadores, pueden potenciar la evaluación de sus estímulos audiovisuales, pasando de la simple opinión posterior a la exposición del estímulo al cliente, consumidor o usuario, al descubrimiento de la verdadera conexión emocional de la audiencia con los contenidos a través del estudio de las microexpresiones faciales. Porque, como lo refleja el nombre de la plataforma: “Tu Cara No Miente”.

Fuentes

Ekman, P., & Friesen, W. V. (1978). Facial Action Coding System: A Technique for the Measurement of Facial Movement. Consulting Psychologists Press.

Lucey, P., Cohn, J. F., Kanade, T., Saragih, J., Ambadar, Z., & Matthews, I. (2010). The Extended Cohn-Kanade Dataset (CK+): A complete dataset for action unit and emotion-specified expression. 2010 Third IEEE International Workshop on Computer Vision for Human-Computer Interaction.

Picard, R. W. (1997). Affective Computing. MIT Press.

Pourramezan Fard, A., Hosseini, M. M., Sweeny, T. D., & Mahoor, M. H. (2024). AffectNet+: A Database for Enhancing Facial Expression Recognition with Soft-Labels. arXiv.

Shen, L., Song, S., Luo, C., Gunes, H., & Xie, W. (2022). Learning Multi-dimensional Edge Feature-based AU Relation Graph for Facial Action Unit Recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence.

Vincze, M., & Vincze, T. (s.f.). The Facial Action Coding System for Characterization of Human Affective Response to Consumer Product-Based Stimuli. VTechWorks.

Zhang, L., & Arandjelović, O. (2021). Review of Automatic Microexpression Recognition in the Past Decade. Machine Learning and Knowledge Extraction, 3(2), 414-434.

Zhang, X., Yin, L., Cohn, J. F., Canavan, S., Reale, M., Horowitz, A., Liu, P., & Girard, J. M. (2014). BP4D-Spontaneous: a high-resolution spontaneous 3D dynamic facial expression database. Image and Vision Computing.