Il metodo FACS

Francesco Galvano

smiling man wearing teal knit cap
smiling man wearing teal knit cap

Ekman e Friesen (1978) hanno sviluppato il Facial Action Coding System (FACS), un sistema di osservazione e classificazione dei movimenti facciali basato su principi anatomo-fisiologici. Questo framework, considerato il più completo per l’analisi delle espressioni facciali (Matsumoto & Hwang, 2018), suddivide il volto in quattro categorie di segnali:

  1. Segnali statici: tratti permanenti come la struttura ossea (Ekman & Friesen, 1978).

  2. Segnali lenti: cambiamenti graduali (es. rughe) dovuti all’invecchiamento (Ekman, 2003).

  3. Segnali artificiali: modifiche esterne come cosmetici o occhiali (Ekman & Friesen, 1978).

  4. Segnali rapidi: movimenti neuromuscolari transienti (250 ms–5 s), fondamentali per lo studio delle emozioni (Cohn & Sayette, 2010).

Il FACS identifica 44 Unità d’Azione (AU) derivanti dalla contrazione di specifici muscoli mimici, combinabili in oltre 7.000 configurazioni (Ekman & Friesen, 1978). Ogni AU include:

  • Sezione A: cambiamenti osservabili (es. sollevamento sopracciglia).

  • Sezione B: istruzioni per replicare il movimento.

  • Sezione C: scala d’intensitĂ  a 5 livelli (A=traccia; E=massima) (Ekman & Friesen, 1978).

La metodologia integra la tecnica di Duchenne (1862/1990), che utilizzava stimoli elettrici per mappare le risposte muscolari, ma si concentra esclusivamente su mutamenti visibili, escludendo aspetti come rossore o sudorazione (Ekman, 2003). Il sistema richiede una formazione rigorosa per decomporre le espressioni in AU, valutandone asimmetrie (L/R), onset (inizio) e offset (termine) (Matsumoto & Hwang, 2018).

Vantaggi e applicazioni

  • Precisione anatomica: correlazione diretta tra AU e muscoli coinvolti (Ekman & Friesen, 1978).

  • OggettivitĂ : codifica non inferenziale, separando descrizione da interpretazione (Cohn & Sayette, 2010).

  • Automazione: utilizzato in psicologia forense, interazione uomo-robot e animazione digitale (Zeng et al., 2009).

Limiti

  • ComplessitĂ : formazione intensiva (300+ ore) per certificazione (Matsumoto & Hwang, 2018).

  • AmbiguitĂ  contestuale: alcune AU (es. AU12 – sorriso) possono indicare emozioni multiple (Frank et al., 2013).

Riferimenti bibliografici

  • Cohn, J. F., & Sayette, M. A. (2010). Spontaneous facial expression in a small group can be automatically measured: An initial demonstration. Behavior Research Methods, 42(4), 1079-1086.

  • Duchenne, G. B. (1990). The mechanism of human facial expression. Cambridge University Press. (Original work published 1862).

  • Ekman, P. (2003). Emotions revealed: Recognizing faces and feelings to improve communication and emotional life. Henry Holt.

  • Ekman, P., & Friesen, W. V. (1978). Facial Action Coding System: A technique for the measurement of facial movement. Consulting Psychologists Press.

  • Frank, M. G., Herbasz, M., Sinuk, K., Keller, A., & Nolan, C. (2013). I see how you feel: Training laypeople and professionals to recognize fleeting emotions. Psychology of Learning and Motivation, 58, 185-227.

  • Matsumoto, D., & Hwang, H. S. (2018). Methodological issues in the use of the Facial Action Coding System. Motivation Science, 4(1), 14-22.

  • Zeng, Z., Pantic, M., Roisman, G. I., & Huang, T. S. (2009). A survey of affect recognition methods: Audio, visual, and spontaneous expressions. IEEE Transactions on Pattern Analysis and Machine Intelligence, 31(1), 39-58.