Il metodo FACS
Francesco Galvano
Ekman e Friesen (1978) hanno sviluppato il Facial Action Coding System (FACS), un sistema di osservazione e classificazione dei movimenti facciali basato su principi anatomo-fisiologici. Questo framework, considerato il più completo per l’analisi delle espressioni facciali (Matsumoto & Hwang, 2018), suddivide il volto in quattro categorie di segnali:
Segnali statici: tratti permanenti come la struttura ossea (Ekman & Friesen, 1978).
Segnali lenti: cambiamenti graduali (es. rughe) dovuti all’invecchiamento (Ekman, 2003).
Segnali artificiali: modifiche esterne come cosmetici o occhiali (Ekman & Friesen, 1978).
Segnali rapidi: movimenti neuromuscolari transienti (250 ms–5 s), fondamentali per lo studio delle emozioni (Cohn & Sayette, 2010).
Il FACS identifica 44 Unità d’Azione (AU) derivanti dalla contrazione di specifici muscoli mimici, combinabili in oltre 7.000 configurazioni (Ekman & Friesen, 1978). Ogni AU include:
Sezione A: cambiamenti osservabili (es. sollevamento sopracciglia).
Sezione B: istruzioni per replicare il movimento.
Sezione C: scala d’intensità a 5 livelli (A=traccia; E=massima) (Ekman & Friesen, 1978).
La metodologia integra la tecnica di Duchenne (1862/1990), che utilizzava stimoli elettrici per mappare le risposte muscolari, ma si concentra esclusivamente su mutamenti visibili, escludendo aspetti come rossore o sudorazione (Ekman, 2003). Il sistema richiede una formazione rigorosa per decomporre le espressioni in AU, valutandone asimmetrie (L/R), onset (inizio) e offset (termine) (Matsumoto & Hwang, 2018).
Vantaggi e applicazioni
Precisione anatomica: correlazione diretta tra AU e muscoli coinvolti (Ekman & Friesen, 1978).
OggettivitĂ : codifica non inferenziale, separando descrizione da interpretazione (Cohn & Sayette, 2010).
Automazione: utilizzato in psicologia forense, interazione uomo-robot e animazione digitale (Zeng et al., 2009).
Limiti
ComplessitĂ : formazione intensiva (300+ ore) per certificazione (Matsumoto & Hwang, 2018).
Ambiguità contestuale: alcune AU (es. AU12 – sorriso) possono indicare emozioni multiple (Frank et al., 2013).
Riferimenti bibliografici
Cohn, J. F., & Sayette, M. A. (2010). Spontaneous facial expression in a small group can be automatically measured: An initial demonstration. Behavior Research Methods, 42(4), 1079-1086.
Duchenne, G. B. (1990). The mechanism of human facial expression. Cambridge University Press. (Original work published 1862).
Ekman, P. (2003). Emotions revealed: Recognizing faces and feelings to improve communication and emotional life. Henry Holt.
Ekman, P., & Friesen, W. V. (1978). Facial Action Coding System: A technique for the measurement of facial movement. Consulting Psychologists Press.
Frank, M. G., Herbasz, M., Sinuk, K., Keller, A., & Nolan, C. (2013). I see how you feel: Training laypeople and professionals to recognize fleeting emotions. Psychology of Learning and Motivation, 58, 185-227.
Matsumoto, D., & Hwang, H. S. (2018). Methodological issues in the use of the Facial Action Coding System. Motivation Science, 4(1), 14-22.
Zeng, Z., Pantic, M., Roisman, G. I., & Huang, T. S. (2009). A survey of affect recognition methods: Audio, visual, and spontaneous expressions. IEEE Transactions on Pattern Analysis and Machine Intelligence, 31(1), 39-58.
Behaviour Analysis Team
Ricerca scientifica e formazione professionale dal 2009
© 2025. All rights reserved.