La comunicazione face-to-face è una tipologia di interazione fra individui basata su multimodalità (gesti, espressioni facciali, parlato, intonazione, etc.) e molteplicità di canali (visivo, acustico, etc.). Nel mondo dello Human Computer Interface (HCI) una continua sfida per i ricercatori è quella di replicare tale modalità di comunicazione, implementando un sistema automatico di identificazione e riconoscimento dei volti, delle espressioni facciali e delle emozioni ad esse correlate. Sulla base degli studi del Prof. Paul Ekman (1976), i ricercatori hanno proposto soluzioni prototipali per il riconosci- mento automatico di volti [1], espressioni ed emozioni, ma nessun sistema si è manifestato totalmente efficiente nel riconoscimento emozionale in termini di robustezza, accuratezza, generalità, automaticità, affidabilità, ripetibilità, e mini-invasività. Le unità di Perugia, Milano e Roma–Tor Vergata, stanno estendendo l’applicazione di tecniche stati- stiche di riconoscimento dei volti da dati biometrici al riconoscimento delle espressioni facciali e delle emozioni. In particolare, è stato sviluppato un rilevatore dell’espressione di sorpresa a partire dai valori delle coordinate dei “landmark” associati al database scientifico delle espressioni Cohn–Kanade [2]. Al fine di rendere i risultati delle analisi oggettivi, ripetibili ed automatici si è fatto ricorso alla tecnica Active Appearance Model (AAM) per la localizzazione dei landmark sulle immagini del viso, che richiede una fase iniziale di creazione di un modello deformabile. Una volta creato il modello, la tecnica AAM permette di localizzare in modo automatico i landmark su nuove immagini di visi in diverse espressioni [3]. Un ulteriore problema, riguarda la spontaneità dell’espressione emotiva. La maggior parte dei database attualmente disponibili, si basano su espressioni facciali “acted”, prodotte cioè da attori, che rappresen- tano una versione stilizzata delle espressioni emotive spontanee. Di conseguenza le caratteristiche di codifica usate per la loro rappresentazione automatica potrebbero non essere quelle che gli umani usano per riconoscere espressioni emotive facciali in interazioni spontanee. Nel contesto di una ricerca dedica- ta all’individuazione di modelli algoritmici per implementare interfacce di comunicazione intelligenti, e sistemi di dialogo interattivi che semplificano l’interazione uomo macchina, la ricerca porterebbe alla implementazione di applicazioni di sistemi intelligenti in diversi settori ed in particolare: in campo clin- ico (sistemi automatici per la riabilitazione di persone con disordini di comunicazione, come nel caso dell’autismo); in campo educativo (sistemi automatici che supportano l’apprendimento nei giovani e negli adulti); nei servizi sociali, in contesti di ambient intelligence (es. assistenza ad anziani).

Riconoscimento delle espressioni dei volti

NUNZI, Emilia;CARNEVALI, VANESSA;BOTTI, Fabio Massimo;
2012

Abstract

La comunicazione face-to-face è una tipologia di interazione fra individui basata su multimodalità (gesti, espressioni facciali, parlato, intonazione, etc.) e molteplicità di canali (visivo, acustico, etc.). Nel mondo dello Human Computer Interface (HCI) una continua sfida per i ricercatori è quella di replicare tale modalità di comunicazione, implementando un sistema automatico di identificazione e riconoscimento dei volti, delle espressioni facciali e delle emozioni ad esse correlate. Sulla base degli studi del Prof. Paul Ekman (1976), i ricercatori hanno proposto soluzioni prototipali per il riconosci- mento automatico di volti [1], espressioni ed emozioni, ma nessun sistema si è manifestato totalmente efficiente nel riconoscimento emozionale in termini di robustezza, accuratezza, generalità, automaticità, affidabilità, ripetibilità, e mini-invasività. Le unità di Perugia, Milano e Roma–Tor Vergata, stanno estendendo l’applicazione di tecniche stati- stiche di riconoscimento dei volti da dati biometrici al riconoscimento delle espressioni facciali e delle emozioni. In particolare, è stato sviluppato un rilevatore dell’espressione di sorpresa a partire dai valori delle coordinate dei “landmark” associati al database scientifico delle espressioni Cohn–Kanade [2]. Al fine di rendere i risultati delle analisi oggettivi, ripetibili ed automatici si è fatto ricorso alla tecnica Active Appearance Model (AAM) per la localizzazione dei landmark sulle immagini del viso, che richiede una fase iniziale di creazione di un modello deformabile. Una volta creato il modello, la tecnica AAM permette di localizzare in modo automatico i landmark su nuove immagini di visi in diverse espressioni [3]. Un ulteriore problema, riguarda la spontaneità dell’espressione emotiva. La maggior parte dei database attualmente disponibili, si basano su espressioni facciali “acted”, prodotte cioè da attori, che rappresen- tano una versione stilizzata delle espressioni emotive spontanee. Di conseguenza le caratteristiche di codifica usate per la loro rappresentazione automatica potrebbero non essere quelle che gli umani usano per riconoscere espressioni emotive facciali in interazioni spontanee. Nel contesto di una ricerca dedica- ta all’individuazione di modelli algoritmici per implementare interfacce di comunicazione intelligenti, e sistemi di dialogo interattivi che semplificano l’interazione uomo macchina, la ricerca porterebbe alla implementazione di applicazioni di sistemi intelligenti in diversi settori ed in particolare: in campo clin- ico (sistemi automatici per la riabilitazione di persone con disordini di comunicazione, come nel caso dell’autismo); in campo educativo (sistemi automatici che supportano l’apprendimento nei giovani e negli adulti); nei servizi sociali, in contesti di ambient intelligence (es. assistenza ad anziani).
2012
9788854850002
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11391/1007265
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact