13. Neuro-Psychoacoustique de L’audition Altérée

Apports de L’imagerie Fonctionnelle Cérébrale

A. Coez




1. DU NORMAL AU PATHOLOGIQUE


L’imagerie fonctionnelle cérébrale permet aux neurobiologistes de décrire dans des groupes de volontaires entendants les mécanismes cérébraux impliqués dans la reconnaissance du langage oral.

Ainsi, il est possible de montrer que les mots du langage oral sont analysés par des structures cérébrales supplémentaires par rapport à la simple écoute de sons purs ou de bruits blancs. Une méta-analyse récente (SAMSON et al., 2001) des études en neuro-imagerie fonctionnelle du traitement cortical de l’information sonore, a permis de décrire un cortex auditif sensible au langage, activé par des éléments constitutifs du langage mais non sollicité par les sons de l’environnement. Ces études permettent également de préciser les traits acoustiques plus spécifiques du langage. Ainsi, les indices temporels fins de la parole tels que les transitions phonétiques induisent des activations supplémentaires par rapport aux voyelles (voir chapitre Neuro-psychoacoustique de l’entendant).

Cette spécialisation des cartes corticales pour analyser le langage oral sont-elles sous la dépendance de l’environnement sonore du sujet, du bain culturel dans lequel il se situe ?

Une étude de neuro-imagerie fonctionnelle cérébrale récente (KLEIN, 2001) a permis de montrer chez l’entendant que l’habitude de traiter certains indices acoustiques constitutifs d’un langage donné engage spécifiquement certaines aires cérébrales. Lorsque l’on compare deux groupes de sujets, aux langues différentes telles que le chinois et l’anglais, des différences d’activations cérébrales apparaissent lors de l’écoute de certains traits acoustiques.

La langue chinoise par rapport à la langue anglaise se caractérise par l’utilisation d’un trait phonétique particulier appelé intonation, qui peut faire prendre des sens différents à une même syllabe (figure 13.1). La syllabe « pa » prononcée sans intonation signifiera « grimper », alors que cette même syllabe avec une intonation descendante signifiera « avoir peur ».








B9782294063428500136/f13-01-9782294063428.jpg is missing
Figure 13.1
Analyse sonographique de la syllabe « pa ». En langue chinoise, des variations d’intonation d’une même syllabe conduisent à des sens différents. Ainsi « pa » dit avec une intonation neutre (A) signifie « grimper » alors que « pa » dit avec une intonation descendante (B) signifie « avoir peur ».


La langue anglaise ne fait pas recours à ce trait acoustique. Lors de l’écoute de ces traits phonétiques, la population chinoise habituée à traiter cet indice acoustique, activera à l’écoute de ces sons un réseau neural gauche (fronto-pariéto-occipital), spécialisé chez l’entendant dans l’analyse du langage, alors qu’un réseau droit (cortex frontal inférieur droit) davantage spécialisé dans la reconnaissance du « pitch » des sons est activé dans la population anglaise dont la langue ne requiert pas la reconnaissance de ce trait acoustique particulier.

Ainsi, en fonction du bain culturel, de l’exposition aux indices acoustiques spécifiques d’une langue auxquels un individu est soumis, les réseaux neuronaux seront différemment activés. Il est ainsi difficile d’établir ce qu’est le « normal », certains utilisateurs d’une langue donnée pouvant demeurés « sourds » aux indices acoustiques d’une autre langue. Une expérience similaire conduite par GANDOUR et al. (1998) avait pu montrer que la langue thaï utilisant des indices acoustiques de type « pitch », la perception du pitch induisait des activations préfrontales supplémentaires gauches dans un groupe connaissant la langue thaï, par rapport à un groupe de langue anglaise qui n’utilise pas le pitch comme indice linguistique.


2. ÉTAPES D’APPARITION DU LANGAGE SIGNÉ OU PARLÉ


L’écoute des traits acoustiques spécifiques à un langage induit des activations des cartes corticales engagées dans l’analyse linguistique. Cette spécialisation se constitue dès le plus jeune âge en fonction de l’état de maturation neural. Ainsi, le nouveau-né reconnaît la prosodie du langage dès 3 mois (voir chapitre Neuro-psychoacoustique de l’entendant). La production du langage oral débute par le babillage aux alentours de 7 mois de vie. Longtemps considéré comme un pur jeu oro-moteur, le babillage apparaît bien comme une étape du développement linguistique. Siobhan HOLOWKA et Laura Ann PETITTO (2002) ont pu filmer des nourrissons entendants âgés de 5 à 12 mois. La spécialisation hémisphérique gauche pour le langage induit chez l’adulte, lors de sa production, une aperture controlatérale droite. Cette étude montre clairement une aperture droite lors du babillage, reflet de la dominance hémisphérique gauche pour le langage.

Inversement, un acte oro-moteur tel que le rire induit une aperture bilatérale. Ce babillage reproduit par ailleurs le rythme des syllabes. La même expérience (PETTITO, 2001) a été réalisée en comparant des nourrissons entendants dans un milieu oraliste et des nourrissons entendants dans un milieu gestuel (american sign language). Au lieu de filmer l’aperture des lèvres, le mouvement des mains a été filmé. Les bébés qui sont dans un milieu gestuel développent des mouvements supplémentaires des mains dont le rythme est de basse fréquence par rapport aux bébés exposés à l’oralisme, et qui correspond au rythme des mains utilisé dans la langue des signes. De plus, ces mouvements sont réalisés dans un cadre spatial qui correspond à celui utilisé par les sourds signeurs. Ces nourrissons communiquent donc avec leur environnement selon la modalité qui a été retenue pour pouvoir le faire. Si le milieu est gestuel, le babillage sera gestuel, si le milieu est oraliste, le babillage sera vocalisé. Ainsi, le babillage gestuel ou oral dépend de l’environnement culturel dans lequel est placé le nouveauné. Comme l’habitude de parler une langue orale telle que le chinois permet d’être sensible à des indices acoustiques de type intonation, l’habitude de percevoir un langage gestuel permet son acquisition.


3. EFFETS DE L’EXPOSITION À LA LANGUE DES SIGNES SUR L’ORGANISATION DES CARTES CORTICALES



3.1. Effet du bain culturel


Tout comme le babillage a longtemps été considéré comme un jeu purement oro-moteur, la langue des signes a suscité de nombreuses controverses. Est-ce qu’une langue visuelle est analysée par des aires exclusivement occipitales ? Est-ce que sa production engage essentiellement des aires motrices ? Que deviennent les aires du langage temporo-frontales latéralisées à gauche chez l’entendant ?

L’imagerie fonctionnelle cérébrale permet d’apporter des éléments de réponse à ces questions. En comparant des sourds signeurs utilisant la langue des signes américaine ou québécoise à un groupe d’entendants, PETITTO (2000) a pu mettre en évidence que lors de la production de langage, oral ou gestuel, les mêmes aires du cortex frontal inférieur gauche étaient engagées.

Ainsi, les tâches de production de langage sont bien latéralisées à gauche, quelle que soit la modalité d’expression employée et utilisent les mêmes réseaux neuraux. De plus, la perception de la langue des signes, qui utilise des indices visuels, est traitée également par les aires temporales (planum temporal) que l’on croyait jusqu’à un passé récent exclusivement « réservées » à la seule analyse des sons. Le langage parlé et signé ont des caractéristiques communes : les deux langages utilisent un jeu limité de traits, organisés dans des patterns réguliers, produits rapidement. Il a été fait l’hypothèse que le planum temporal pouvait être activé par la vue ou l’ouïe, car cette structure est spécialisée dans l’analyse des changements rapides plutôt que des variations sonores stricto sensu. La fonction de cette aire cérébrale pourrait être l’analyse des indices de mouvements, des variations de signal, qu’elles soient visuelles ou sonores. Tout comme les transitions phonétiques chez l’entendant induisent des activations supplémentaires par rapport à l’écoute de stimuli stationnaires tels que les voyelles, les mouvements rythmiques liés à la langue des signes induisent également des activations supplémentaires.

En tout état de cause, la différenciation de cette région temporale apparaît dépendre de l’environnement dans lequel se trouve un individu donné. MACSWEENEY et al. (2002) avaient pu également mettre en évidence des patterns d’activations aux multiples points communs entre un groupe d’entendants et un groupe de sourds congénitaux signeurs. Des activations frontales et temporales comparables étaient retrouvées.

Des indices visuels assimilés à du langage induisent des activations comparables à celles observées avec des indices acoustiques linguistiques chez les entendants. De façon intéressante, des entendants signeurs présentent des cartes d’activations qui engagent beaucoup moins les aires temporales, comme si le fait d’avoir acquis plus tardivement ce mode de communication et d’être engagé malgré tout dans un monde essentiellement sonore avait induit une organisation différente des cartes corticales pour analyser un même type de stimuli.


3.2. Phonologie de la langue des signes


Tout comme certains traits acoustiques utilisés dans les langues orales induisent des activations supplémentaires par rapport à des traits acoustiques qui ne sont pas reconnus comme tels, il est possible d’étudier, en imagerie fonctionnelle cérébrale, les activations induites par des mots signés en langue des signes anglaise (BSL) par rapport à des signes qui ressemblent à cette langue mais qui ne sont pas signifiants (tic-tac code).

MACSWEENEY et al. (2004) ont pu montrer qu’à la vue de ces deux types de signes, les groupes d’entendants, d’entendants signeurs et de sourds congénitaux signeurs présentent des activations temporales supérieures bilatérales. Quel que soit le mode de communication utilisé, les indices visuels de mouvement sont bien analysés par les structures temporales. Fait remarquable, les activations enregistrées dans le groupe qui a été le plus privé d’afférences auditives (sourds congénitaux signeurs) présente également des activations temporales significativement plus importantes suggérant que l’habitude de traiter des indices visuels a favorisé le développement de ces aires temporales spécialisées, quelle que soit la modalité de langage, dans l’analyse des indices visuels de mouvement.

De plus, l’écoute de la BSL par rapport à l’écoute du tic-tac code induit des activations temporales postérieures gauches (GTS + STS) dans les deux groupes capables d’utiliser la BSL. Ces activations spécifiques significativement latéralisées à gauche ne sont pas retrouvées chez les entendants non-signeurs. L’habitude d’analyser des indices visuels chargés de sens permet d’accéder aux réseaux neuraux spécialisés dans l’analyse du langage, latéralisés à gauche, quelle que soit la modalité utilisée (orale ou gestuelle).

Le cortex temporal droit semble engagé dans la détection des indices visuels de mouvement. BAVELIER et al. (2001) avaient pu montrer que les régions postérieures du STS étaient recrutées de façon plus importante quand le sujet sourd congénital portait attention à des variations de mouvement par rapport à l’entendant. De plus, les activations étaient d’autant plus importantes que l’attention portée aux indices visuels était périphérique plutôt que centrale. Effectivement, la langue des signes, pour pouvoir être capturée, demande une attention sur un large champ visuel, alors que la stratégie de vision de l’entendant est davantage ciblée localement. L’âge d’acquisition de la langue des signes semble jouer également un rôle. NEWMAN et al. (2002) ont pu montrer que les aires temporales droites étaient significativement plus activées dans un groupe de sourds ayant acquis l’ASL avant la puberté par rapport à un groupe l’ayant acquis après la puberté. Les activations droites dans la détection des indices visuels de mouvement sont influencées par l’habitude prise de détecter dès le plus jeune âge ce type de signal.

De même, l’aire spécifique de la voix humaine (BELIN et al., 2000) semble, par privation sensorielle, analyser des indices visuels selon l’âge d’acquisition de la langue des signes japonaise (SADATO 2004). En conclusion (CAPEK et al., Capek, Bavelier, Corina, Newman, Jezzard and Neville, 2004), les langues orales et gestuelles sont analysées par un réseau neural latéralisé à gauche (frontal inférieur et temporal supérieur). La surdité, et l’usage de la langue des signes induit des spécialisations hémisphériques droites (frontales inférieures et temporales supérieures) dans l’analyse des variations de mouvement (rythme).


4. LECTURE LABIALE


L’imagerie fonctionnelle cérébrale permet d’apporter également des éléments de réponse à la façon dont le cerveau est organisé pour pouvoir traiter les indices visuels de la lecture labiale en fonction de l’existence ou non d’une privation auditive. (CALVERT et CAMPBELL 2003) ont pu étudier les réseaux neuraux activés lors de la vision de trois types de stimuli visuels neutres (bouche fermée), image stationnaire (exécution d’une voyelle stable), mouvement buccal (exécution d’une monosyllabe). À la vue (lecture labiale) de voyelles et de syllabes, des régions cérébrales communes latéralisées à gauche sont activées : régions frontales inférieures (Broca), STS, gyrus supramarginal. De plus, les syllabes induisent des activations significativement plus importantes à gauche (STS et GFi) par rapport à la vision des voyelles, tout comme le fait l’écoute des transitions phonétiques par rapport aux voyelles. Chez l’entendant, cette région le long du sillon temporal gauche est activée proportionnellement au degré de congruence des informations audiovisuelles perçues (KING et CALVERT, 2001) : si les informations visuelles sont désynchronisées par rapport aux informations auditives, le STS gauche est fortement désactivé, alors qu’une synchronisation audiovisuelle correcte permet une synergie potentialisatrice entre les deux types de signaux reçus (le degré des activations audiovisuelles est supérieur à la somme des activations enregistrées dans chaque modalité séparée). Ces indices visuels sont capables d’induire des activations comme le feraient des indices acoustiques de langage dans le cortex auditif (figure 13.2) qui a été défini comme étant le cortex auditif sensible au langage (SAMSON et al., 2001).








B9782294063428500136/f13-02-9782294063428.jpg is missing
Figure 13.2
Le paradigme d’activation lors d’une épreuve de discrimination de durée (BELIN et al., 2002) induit des activations temporo-préfrontales droites. Ce pattern d’activation est retrouvé chez des entendants qui sont soumis à un test au promontoire. La capacité d’un sujet à discriminer des différences de durée serait corrélée à sa capacité de percevoir de façon intelligible le langage. Un test au promontoire, capable d’induire des activations dans ces régions visualisées en imagerie fonctionnelle cérébrale, serait d’un bon pronostic pour un candidat à l’implantation cochléaire.

Only gold members can continue reading. Log In or Register to continue

Stay updated, free articles. Join our Telegram channel

Aug 15, 2017 | Posted by in GÉNÉRAL | Comments Off on 13. Neuro-Psychoacoustique de L’audition Altérée

Full access? Get Clinical Tree

Get Clinical Tree app for offline access