information

Type
Soutenance de thèse/HDR
performance location
Ircam, Salle Igor-Stravinsky (Paris)
duration
01 h 33 min
date
December 18, 2018

Soutenance de thèse de Pablo Arias

Pablo ARIAS soutient en anglais sa thèse de doctorat réalisée au sein de l'équipe Perception et Design Sonores (STMS - CNRS/Ircam/Sorbonne Université), intitulée : "The cognition of auditory smiles: a computational approach » Le jury est composé de : Rachael Jack - Institute of Neuroscience & Psychology, University of Glasgow Tecumseh Fitch - Department of Cognitive Biology, University of Vienna Julie Grèzes - Laboratoire de Neurosciences Cognitives et Computationnelles, ENS Catherine Pelachaud - Institut des Systèmes Intelligents et de Robotique, Sorbonne Université Martine Gavaret - Centre de recherche en Psychiatrie et Neurosciences, Paris Descartes Pascal Belin - Institut de Neurosciences de la Timone, CNRS, Aix Marseille Université Jean-Julien Aucouturier - STMS - Ircam/CNRS/Sorbonne Université Patrick Susini - STMS - Ircam/CNRS//Sorbonne Université Abstract: Emotions are the fuel of human survival and social development. Not only do we undergo primitive reflexes mediated by ancient brain structures, but we also consciously and unconsciously regulate our emotions in social contexts, affiliating with friends and distancing from foes. One of our main tools for emotion regulation is facial expression and, in particular, smiles. Smiles are deeply grounded in human behavior: they develop early, and are used across cultures to communicate affective states. The mechanisms that underlie their cognitive processing include interactions not only with visual, but also emotional and motor systems. Smiles, trigger facial imitation in their observers, reactions thought to be a key component of the human capacity for empathy. Smiles, however, are not only experienced visually, but also have audible consequences. Although visual smiles have been widely studied, almost nothing is known about the cognitive processing of their auditory counterpart. This is the aim of this dissertation. In this work, we characterise and model the smile acousitc fingerprint, and use it to probe how auditory smiles are processed cognitively. We give here evidence that (1) auditory smiles can trigger unconscious facial imitation, that (2) they are cognitively integrated with their visual counterparts during perception, and that (3) the development of these processes does not depend on pre-learned visual associations. We conclude that the embodied mechanisms associated to the visual processing of facial expressions of emotions are in fact equally found in the auditory modality, and that their cognitive development is at least partially independent from visual experience. -=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=- "Le traitement cognitif des sourires auditifs : une approche computationnelle" Résumé : Les émotions sont essentielles à notre survie et à notre développement social. Non seulement elles nous servent au travers de réflexes primitifs, mais aussi comme moyen de régulation de nos interactions sociales. Les outils fondamentaux de cette communication sociale sont les expressions faciales émotionnelles, dont une des plus importantes est le sourire. Le sourire se développe tôt pendant l'enfance, et est utilisé comme un instrument de communication affectif à travers les cultures. Les mécanismes cognitifs responsables de sa perception impliquent des interactions avec des systèmes visuels, émotionnels et moteurs. En particulier, l'observation d'un sourire entraîne typiquement une imitation faciale spontanée, une réaction qui est considérée comme essentielle à notre capacité d'empathie avec l'autre. Malgré de grandes avancées scientifiques sur la cognition des sourires visuels, très peu de travaux se sont intéressés à leur perception auditive. C'est le but de cette thèse. Ici, nous caractérisons et modélisons les conséquences acoustiques des sourires, et nous utilisons ces modèles pour étudier comment ils sont traités cognitivement. Nos résultats montrent (1) que les sourires auditifs induisent de l'imitation faciale chez leurs auditeurs, (2) qu'ils sont intégrés de façon multimodale aux indices visuels, et (3) que ces processus ne dépendent pas d’associations visuelles préalablement établies. Nous concluons que les mécanismes de cognition incarnés typiquement associés au traitement visuel des expressions émotionnelles se retrouvent dans la modalité auditive, et que leur développement est au moins partiellement indépendant de l'expérience visuelle.

speakers


share


Do you notice a mistake?

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

opening times

Monday through Friday 9:30am-7pm
Closed Saturday and Sunday

subway access

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.