L'IA AU PROFIT DE L'ETUDE DES EXPRESSIONS EMOTIONNELLES NON VERBALES
Résumé
Introduction
L’étude des émotions humaines, et plus spécifiquement de leurs expressions non verbales, constitue un champ de recherche en plein essor. Notre étude s’inscrit dans ce cadre en exploitant les avancées de l’intelligence artificielle (IA) pour analyser la production des Expressions Faciales Émotionnelles automatiques (EFE) en situation d’induction émotionnelle. Son objectif principal est de développer une base de données d’extraits vidéo induisant différentes émotions chez des adultes, qui serviront de stimuli dans le projet POSTURE (financé par l’ANR, ANR-22-CE38-0010-01).
Méthodologie
Les participants ont été exposés à une série d’extraits de vidéos supposés induire différents types d’émotions. Au cours du visionnage, ils étaient invités à rapporter sur une échelle de Likert l’intensité de leur ressenti dès lors qu’ils éprouvaient une émotion. En parallèle, leur visage était filmé à l’aide d’une Webcam. Nous avons ainsi combiné des mesures subjectives (intensité et fréquence du ressenti émotionnel) avec des analyses comportementales issues des enregistrements Webcam automatisées à l’aide du logiciel OpenFace. Ce dernier, basé sur des algorithmes de machine learning, permet une classification fine des contractions musculaires du visage des participants tout au long du visionnage des extraits vidéo. L’évaluation de ces unités d’action (UA) constituantes des EFE a permis de déterminer les moments d’apparition des pics émotionnels en concordance entre les ressentis exprimés des participants, évalués par l’intensité et la fréquence de leurs émotions. Par ailleurs, des variables interindividuelles, telles que l’empathie, l’intelligence émotionnelle et la capacité d’immersion, ont été recueillies.
Résultats
Les analyses préliminaires révèlent que l’algorithme de machine learning d’OpenFace parvient à analyser les expressions faciales automatiques des participants lors du visionnage d’une manière cohérente avec les émotions supposées être induites. Nous avons également mis en évidence des relations significatives entre les caractéristiques interindividuelles et les ressentis subjectifs en termes d’intensité et de fréquence. Les analyses en modèles linéaires montrent que la contagion émotionnelle influence l’intensité ressentie, tandis que l’empathie cognitive joue un rôle central dans la fréquence des émotions exprimées. Les comparaisons des moyennes d’intensité d’activation des UA indiquent des différences significatives selon les catégories émotionnelles. L’exploration des dynamiques temporelles reste à finaliser.
Limites
Le recours à l’IA pose des défis méthodologiques, en effet, bien qu’elle permette de traiter et de recueillir massivement des données dynamiques leur analyse peut être complexe, notamment en raison de la complexité des algorithmes utilisés, pouvant entraîner un manque de transparence. De plus, la gestion des données et l’interprétation des résultats nécessite une expertise croisée avec des approches complémentaires (ingénierie informatique et psychologie).
Fichier principal
Résumé_IA_Non_Verbal.pdf (251.93 Ko)
Télécharger le fichier
Com_Orale_Tours_LR VF (1).pdf (1.79 Mo)
Télécharger le fichier
Origine | Fichiers produits par l'(les) auteur(s) |
---|