Séminaire Octogone : "Reconnaissance de mots et multimodalité: Etudes chez l’adulte, l’enfant et le nourrisson"

Publié le 19 octobre 2012 Mis à jour le 29 mai 2013
le 5 décembre 2012
14h - 16h
MdR, salle D30
Mathilde Fort, post-doctorante au Laboratoire de Sciences Cognitives et Psycholinguistique (Ecole Normale Supérieure – Ulm – Paris)

50 années de recherches dans des domaines aussi variés que la linguistique, la phonétique, la psycholinguistique, la neuropsychologie, la neurophysiologie etc. ont montré l’importance de considérer la parole comme un objet multimodal (e.g., Bernstein, Burnham, & Schwartz, 2002; Rosenblum, 2005, 2008). Ainsi, il a par exemple été démontré que lorsque le signal acoustique de parole est détérioré par du bruit, le fait de voir le visage de notre interlocuteur permet d'augmenter l'intelligibilité des phonèmes (e.g., Sumby & Pollack, 1954). Cependant, peu de travaux ont étudié l'apport de cette multimodalité dans des processus de traitement de la parole de plus haut niveau (i.e., pour reconnaitre les mots, lors de l'accès au lexique).
Lors de cette présentation, une première série de travaux sera présentée, consistant à évaluer la contribution spécifique de la gestualité oro-faciale verbale (i.e., non émotionnelle) dans le processus d'accès au lexique, chez l’adulte et l’enfant normo-entendants (Etudes 1 à 5). Dans une seconde partie, un autre aspect de la perception de la parole multimodale sera examiné dans le cadre du "sound symbolism" (i.e., "bouba-kiki effect", Köhler, 1947). Nous présenterons des travaux visant  à évaluer les capacités d'intégration/association intermodales (son de parole-caractéristiques visuelles d'une image) chez l’adulte (Etudes 6 à 8) et le nourrisson de 5 mois (Etude 9).