Introduction
1L’accident vasculaire cérébral (AVC) est à l’origine d’environ 38 % des cas d’aphasie, dont le type dépend de la localisation cérébrale de la lésion. Un AVC dans le territoire de l’artère cérébrale moyenne gauche avec lésion du gyrus frontal inférieur (GFI) et des structures sous-corticales à gauche est à l’origine des troubles rencontrés dans l’aphasie non fluente ou de Broca [1-3]. Plus spécifiquement, ce type d’aphasie est caractérisé par une altération de la production lexicale, une expression langagière pauvre, une production de phrases courtes, souvent syllabiques et dysprosodiques, avec des déficits morphosyntaxiques et un agrammatisme. Les patients aphasiques sont pris en charge cliniquement afin de retrouver les capacités de parole perdues. Dans ce cadre, la rééducation orthophonique est couramment utilisée et montre des effets positifs, notamment dans les phases aiguës de l’aphasie [4]. L’effet de la rééducation orthophonique, lorsqu’elle est effectuée à raison de moins de cinq heures par semaine, décroît après quelques mois en phase chronique [5]. Dans ce contexte, les nouvelles méthodes de rééducation fondées sur des technologies innovantes (logiciels informatiques, réalité virtuelle, etc.) peuvent apporter un complément ou représentent une alternative novatrice à la rééducation orthophonique traditionnelle. En effet, ce type de rééducation dite traditionnelle se base sur une comparaison des propres productions du patient par rapport à celles de l’orthophoniste et, dans ce cadre, la rééducation se déroule sans support informatique.
2 La production de parole s’appuie, à la fois, sur des aspects moteurs des articulateurs de parole pour la production effective des gestes produisant les sons de parole, et sur des aspects perceptifs, en lien avec les représentations visuelles et somatosensorielles de ces gestes ainsi qu’avec les représentations auditives des sons associés [4]. Sur la base de cette interaction entre les aspects moteurs et perceptifs (interaction perception-action), il pourrait être envisageable d’améliorer les capacités de production langagière, grâce à des stratégies de réadaptation basées sur l’exécution et l’observation d’actions motrices. En effet, plusieurs études suggèrent que l’utilisation d’un support visuel représentant les articulateurs de parole, en complément des informations auditive et/ou visuelle (miroir ou guides-langues) fournies lors de la rééducation classique, permettrait d’améliorer les performances langagières [4, 6, 7]. Deux types de paradigmes de représentation visuelle des articulateurs peuvent être envisagés :
- le retour lingual, pour visualiser les mouvements de la propre langue du patient ;
- l’illustration linguale, pour visualiser les mouvements linguaux cibles enregistrés au préalable chez un locuteur de référence.
4 Dans cette étude, nous appliquons le paradigme d’illustration linguale. En effet, la vision (lecture labiale et linguale) est une composante essentielle de la perception de la parole, tel que démontré par l’effet McGurck [8] et le rôle de la perception visuelle dans le bruit [9]. Différentes techniques d’illustration des articulateurs de la parole ont été développées telles que Ultraspeech player[10], les têtes parlantes [6], les têtes virtuelles [11] ou le dispositif Diadolab [12]. À titre d’exemple, les têtes parlantes, qui permettent de visualiser les articulateurs de parole visibles et non visibles (langue, voile du palais, mâchoire, lèvres), ont été utilisées de façon prometteuse dans le cadre de travaux sur le développement du langage (voir [6, 12]). Des études effectuées chez des enfants avec ou sans troubles de la parole de type sigmatisme ont montré que l’utilisation des têtes parlantes permettait l’apprentissage implicite de la lecture linguale et d’améliorer la conscience articulatoire, phonologique et l’intelligibilité, après un entraînement [6, 11, 12]. Une autre méthode de visualisation des articulateurs de parole peut être utilisée, il s’agit du logiciel Ultraspeech player[10]. Ce logiciel permet aux patients de visualiser des vidéos préenregistrées des mouvements linguaux et labiaux d’un locuteur de référence, généralement un(e) orthophoniste, synchronisés avec le signal audio, pour les différents sons du français (voyelles et consonnes isolées ou combinées). Les vidéos linguales proviennent d’images échographiques obtenues avec une sonde placée sous le menton du locuteur de référence et les vidéos labiales sont obtenues à l’aide d’une caméra placée en face de ses lèvres. Fabre et al. [7] ont montré que l’utilisation du logiciel Ultraspeech player permettait une amélioration des performances chez des enfants présentant des troubles phonologiques (substitution de /t / par /k /), après deux séances de rééducation. Ce logiciel met en œuvre une interaction entre la perception visuelle des gestes articulatoires à accomplir, la perception auditive des sons résultant de ces gestes et l’action articulatoire elle-même produite par le patient. Il implique ainsi l’intégration perceptivomotrice (IPM) évoquée dans le modèle neurocognitif du contrôle moteur de la production orale du langage, proposé par Hickok en 2012. Hickok postule en effet l’existence de deux boucles, une auditivomotrice et une autre somato-sensorimotrice, impliquant des représentations auditives et somatosensorielles pour produire des sons de parole [13]. Grâce à l’utilisation d’Ultraspeech player, le patient peut bénéficier d’informations cibles de nature multisensorielle et peut ainsi intégrer les informations visuelles (articulatoires) et auditives cibles, fournies par le logiciel, avec les informations somesthésiques/proprioceptives liées à ses propres productions.
5 L’objectif de cette étude est d’illustrer, à travers deux cas de patients présentant une aphasie non fluente chronique, l’efficacité d’un programme novateur de rééducation, fondé sur l’IPM en utilisant le logiciel Ultraspeech player. Nous avons évalué l’effet de la rééducation sur l’amélioration de la parole, en comparant les performances des patients, avant et après la rééducation, avec une démarche multimodale fondée sur :
- l’évaluation qualitative des scores de langage issus du bilan orthophonique, afin de déterminer si la rééducation permet d’améliorer les performances au niveau du langage oral ;
- l’analyse quantitative du signal de parole et l’analyse détaillée des paramètres acoustiques afin d’évaluer si la rééducation permet d’améliorer les performances acoustiques de parole ;
- l’évaluation en IRMf des réseaux cérébraux recrutés par diverses tâches langagières afin d’identifier les patrons de réorganisation anatomofonctionnelle efficaces, en nous appuyant sur le modèle de Hickok [13] pour l’interprétation des activations cérébrales.
Matériel et méthode
Participants
7Les données démographiques et cliniques des deux patientes (patiente 1 [P1] et patiente 2 [P2]) sont présentées dans le tableau 1 et sur la figure 1. P1 présente une lésion au niveau du lobe frontal gauche (GFI) incluant des structures sous-corticales (ganglions de la base) ; il s’agit d’une lésion typique rencontrée lors d’une aphasie de Broca post-AVC (figure 1 A). P2 présente une lésion plus large et localisée, au-delà de la région frontale, au niveau temporopariétal, plus typique d’une aphasie globale (figure 1B), même si la symptomatologie au moment de l’évaluation a été celle d’une aphasie de Broca. Cette étude a été approuvée par le comité d’éthique local (CPP-ISIS 07PHR04-no DCIC/06/25).
Figure 1
Figure 1
Images IRM (T1) obtenues chez les patientes P1 (A) et P2 (B) pour visualiser la localisation de la lésion post-accident vasculaire cérébral (AVC) au niveau de l’hémisphère gauche : frontale et ganglions de la base pour P1 et fronto-temporopariétale pour P2.Rééducation de la parole
8Les patientes ont suivi, en plus de la rééducation orthophonique traditionnelle, une rééducation avec le logiciel Ultraspeech player (figure 2). Durant les séances de rééducation, elles étaient placées face à un ordinateur sur l’écran duquel elles visualisaient des images échographiques préenregistrées des mouvements linguaux d’un sujet normolocuteur, synchronisées avec le signal audio, également préenregistré, pour différents phonèmes du français. Après chaque présentation synchrone du son et des vidéos, les patientes devaient répéter le son entendu. Les phonèmes ciblés étaient les voyelles /i, e, ε, a, y, ø, œ, u, o, ɔ, ã, / et les consonnes /p, t, k, b, d, g, f, v, s, z, ʃ, ʒ, l, m, n, / produites de façon isolées ou combinées (voyelle-consonne-voyelle). Après vérification des capacités de compréhension des patientes (voir bilan orthophonique), l’orthophoniste a présenté le logiciel aux patientes en décrivant les mouvements de la langue affichés, pour bien situer la racine, le dos et la pointe de la langue, ainsi que le contour du palais. Après cette première séance d’initiation, P1 a effectué successivement 13 séances en autonomie, et trois séances accompagnées par l’orthophoniste (deux fois 20 minutes et une fois 10 minutes). P2 a effectué neuf séances en autonomie. La durée d’une séance a été d’environ 45 minutes.
Figure 2
Figure 2
Illustration de l’interface du logiciel Ultraspeech player[10] qui permet au patient de visualiser une séquence d’images échographiques préenregistrées des mouvements de la langue, lors de la production de phonèmes/syllabes par une orthophoniste (son et images échographiques synchronisés). En rouge : contour sagittal du conduit vocal, avec les lèvres à droite. Le tracé blanc à l’intérieur du conduit vocal représente le contour externe de la langue. La séquence vidéo est arrêtée sur le point de contact du dos de la langue avec l’arrière du palais, lors de la production de la séquence /aka/.Évaluation expérimentale
Acoustique
9Les performances sur le plan acoustique ont été évaluées avant et après rééducation, grâce à une tâche de répétition de monosyllabes ou bisyllabes simples, sémantisées dans la mesure du possible et qui incluaient toutes les consonnes et voyelles du français (e.g. « où » /u/, « gars » /ga/, « tata » /tata/). Les patientes devaient répéter la séquence produite par l’orthophoniste, celle-ci étant également présentée à l’écrit sur une feuille de papier. Trois répétitions ont été réalisées. La première répétition comprenait des voyelles isolées (V = /i, e, ε, a, y, ø, œ, u, o, ɔ, ã, /) et des consonnes (C = /p, t, k, b, d, g, f, v, s, z, ʃ, ʒ, l, m, n, , ɲ, j/) suivies de /a/ en position initiale (Ca et CaCa), médiane (aCa) et finale (aC). Les deuxième et troisième répétitions comprenaient les voyelles seules et les consonnes en position initiale.
Orthophonie
10Un bilan orthophonique (tableau 2) a été réalisé chez les patientes, avant et après rééducation. Ce bilan comprend plusieurs tâches pour évaluer :
- la production lexicale grâce à une épreuve de dénomination d’images (DO80 [14]) ;
- l’accès au lexique phonologique de sortie (buffer phonologique) et à l’encodage phonétique grâce à la répétition des mots et des logatomes ;
- la dénomination de lettres écrites grâce à la lecture des lettres, syllabes et mots ;
- l’accès au lexique phonologique d’entrée grâce au jugement de rimes [15] ;
- la disponibilité lexicale en lien avec les fonctions exécutives grâce aux épreuves de fluence verbale alphabétique et catégorielle ;
- la mémoire de travail avec la répétition de phrases ;
- la compréhension du langage avec la désignation d’images et l’évaluation de la morphosyntaxe (MT86 [16]) ;
- les praxies buccofaciales réalisées sur demande (ordre oral) ou, en cas d’échec, sur imitation (un exemple d’ordre : « Ouvrir la bouche »).
Scores obtenus par P1 (à gauche) et P2 (à droite) pour les différentes tâches du bilan orthophonique, avant et après la rééducation
Scores obtenus par P1 (à gauche) et P2 (à droite) pour les différentes tâches du bilan orthophonique, avant et après la rééducation
IRM fonctionnelle
12Avant et après rééducation, les patientes ont réalisé un examen en IRM fonctionnelle (IRMf) comprenant deux tâches, répétition de syllabes (RS) et détection de rimes (DR), permettant de tester le fonctionnement des boucles auditivo- et somato-sensorimotrices telles que postulées par le modèle de Hickok [13]. Pendant la RS, les patientes devaient répéter 20 monosyllabes simples sémantisées présentées en modalité auditive. Ces monosyllabes étaient composés de dix voyelles orales /i, e, ε, a, y, ø, œ, u, o, ɔ/ et de dix consonnes /t, d, k, g, s, z, ʃ, ʒ, l, / suivies de /a/. Nous avons utilisé des monosyllabes sémantisées plutôt que des syllabes sans signification, afin de créer un contexte facilitateur et plus écologique, pour amorcer la production des mots et observer des capacités de production proche de la vie réelle [17]. Les réponses orales des patientes ont été enregistrées grâce à un microphone compatible IRM (FOMRITM III, version 1.2). La condition contrôle associée à cette tâche était un bruit blanc ne requérant aucune réponse. Pour la DR, les patientes devaient juger si les paires de mots, présentées en modalité visuelle, rimaient ou non. La moitié des paires étaient phonologiquement et orthographiquement congruentes (ex. : alphabet-chalet) et l’autre moitié, incongruentes (ex. : allumette-tonnerre) [15]. Les mots étaient présentés par paires (20 paires), l’un en dessous de l’autre et écrits en noir. Si les mots rimaient, les patientes devaient appuyer sur une clé de réponse. La condition contrôle pour cette tâche était représentée par deux lignes horizontales, que les patientes devaient simplement regarder. Le logiciel E-Prime (Psychology Software Tools, Pittsburgh, PA) a été utilisé afin de présenter les stimuli lors de ces deux tâches et d’enregistrer les réponses manuelles pendant la DR. Les deux tâches étaient présentées dans un paradigme de type bloc qui alternait cinq périodes de tâche et de contrôle. Chaque condition (tâche, contrôle) durait 24 secondes et quatre stimuli par condition étaient présentés. La durée totale pour les deux acquisitions était de dix minutes.
13 Ces protocoles ont été conçus de façon à être plus facilement réalisables par les patients, qui présentent en général des performances plus faibles que les sujets contrôles. Ainsi, en conséquence de ces conditions non optimalement contrôlées, les activations observées ne représentent pas exclusivement les processus langagiers étudiés mais reflètent autant les bonnes que les mauvaises réponses.
Acquisition IRMf
14 Les acquisitions IRMf ont été réalisées avec l’imageur 3T corps entier (Philips Achieva, TX) sur la plateforme IRMaGe du CHU de Grenoble. Une séquence d’acquisition FE-EPI pondérée en T2* a été utilisée. Cinquante-deux coupes adjacentes, parallèles au plan bi-commissural et d’une épaisseur de 2,75 mm chacune, ont été acquises en mode séquentiel. La taille des voxels était de 2,5 × 2,5 × 3 mm avec un champ de vue de 220 × 220 × 156 mm et encodés par une matrice d’acquisition de 88 × 85. Les autres paramètres étaient : TR = 3 s, TE = 30 ms et l’angle de bascule = 80°. Une image anatomique pondérée en T1 avec haute résolution spatiale (1 × 1 × 1 mm) a été également acquise.
Analyse de données
Données acoustiques
15Le signal acoustique obtenu avant et après rééducation a été enregistré à 44,1 kHz et rééchantillonné à 12 kHz pour faciliter l’analyse acoustique. Les analyses réalisées ont concerné les répétitions des voyelles seules et des consonnes, en position initiale et médiane. Les données ont été traitées avec le logiciel Praat [18]. Nous avons annoté les phonèmes comme corrects, incorrects, émergents (la prononciation passe par un autre phonème avant de produire le phonème cible, e.g. pour produire un /v/ la patiente peut initialement produire un [f] qui se transforme progressivement en [v]) et avec erreur de voisement (le mode et le lieu d’articulation sont corrects mais le voisement est incorrect, e.g. production de /t/ au lieu de /d/). Les analyses nous ont permis d’extraire, pour les phonèmes corrects ou émergents, les paramètres acoustiques, notamment les formants F1 et F2 pour les dix voyelles orales /i, e, ε, a, y, ø, œ, u, o, ɔ/ ; et les deux premiers moments spectraux (centre de gravité [CG] et écart-type [ET]) pour les six consonnes fricatives /f, v, s, z, ʃ, ʒ/. Pour rappel, les formants représentent les zones de fréquences les plus intenses du spectre vocalique, et les moments spectraux décrivent les propriétés spectrales du bruit de friction présent lors de la production des consonnes fricatives. Les valeurs de formants ont été obtenues à l’aide d’un script Praat permettant de détecter les formants (entre 0 et 5500 Hz) avec un pas de 0,01 s, une fenêtre gaussienne d’analyse de 0,025 s et une pré-emphase de 50 Hz. Un script R [19] nous a permis de tracer les trapèzes vocaliques (représentation graphique de F1 en fonction de F2) pour les productions de l’orthophoniste et de chacune des patientes, avant et après rééducation. Le fait que l’on dispose uniquement de trois répétitions par voyelle ne nous a pas permis d’effectuer une normalisation des données [20]. Les deux paramètres suivants ont été utilisés dans nos analyses :
- distance intervoyelles qui montre la différence acoustique entre les voyelles (en condition normale, cette valeur doit être importante) ;
- distance intravoyelle qui indique la stabilité acoustique des différentes répétitions d’une même voyelle (en condition normale, cette valeur doit être faible).
17 Pour les consonnes fricatives, un script Praat nous a permis d’extraire les moments spectraux, en prenant une fenêtre de 40 ms centrée sur le milieu du bruit de friction engendré par la consonne. Nous nous sommes intéressés aux deux premiers moments spectraux, le CG qui permet de distinguer les fricatives alvéolaires (/s, z/) des post-alvéolaires (/ʃ, ʒ/), et l’ET qui distingue les fricatives labiodentales (/f, v/) des alvéolaires et post-alvéolaires [21]. Classiquement, les valeurs du CG doivent suivre l’ordre suivant : alvéolaire > labiodentale > post-alvéolaire, tandis que les valeurs d’ET doivent suivre cet ordre : labiodentale > alvéolaire > post-alvéolaire [22]. Enfin, un script R nous a permis d’évaluer les performances des patientes grâce aux pourcentages des réponses correctes, incorrectes, émergentes et avec erreur de voisement pour les voyelles et/ou les consonnes.
Orthophonie
18 Les patientes ont été suivies par différent(e)s orthophonistes lors de leur rééducation, avant d’être incluses dans ce protocole. Les évaluations et programmes de rééducation orthophonique antérieurs à notre étude n’ont pas été strictement les mêmes selon les patientes. Ainsi, nous n’avons pas pu bénéficier, pour une épreuve donnée, de plusieurs mesures permettant des comparaisons statistiques sur l’évolution de l’aphasie à travers les patientes [23]. En effet, pour chaque épreuve de langage, nous disposons de deux mesures, avant et après rééducation, ce qui ne nous a permis d’évaluer les progrès en production du langage que de façon qualitative. Ainsi, nous avons calculé un indice d’évolution (IE) des performances langagières, fondé sur la comparaison des scores obtenus avant et après la rééducation, pour chaque item de chacun des tests du bilan orthophonique (tableau 2). Cet indice peut prendre la valeur de -1 si la patiente a donné une réponse correcte avant mais incorrecte après la rééducation, +1 si la réponse était incorrecte avant et correcte après la rééducation, et 0 si la réponse était incorrecte avant et après la rééducation ou correcte avant et après rééducation. De cette façon, cet indice rend compte de l’amélioration ou du déclin des performances des patientes, pour chacune des tâches du bilan orthophonique.
IRM fonctionnelle
19 L’analyse des données d’IRMf a été réalisée en utilisant le modèle linéaire général avec le logiciel SPM12 (Wellcome Department of Imaging Neuroscience, London, Royaume-Uni, www.fil.ion.ucl.ac.uk/spm) utilisé sous MATLAB (Mathworks Inc., Natick, MA, États-Unis). Les analyses IRMf ont été réalisées en deux étapes : prétraitement des données et analyses statistiques. Le prétraitement spatial des données est décrit en détail dans nos travaux précédents [4].
Analyse statistique des données
20 Les analyses statistiques ont été réalisées sur les données prétraitées pour chaque tâche (DR et RS) séparément. Pour chaque tâche, nous avons déclaré deux régresseurs d’intérêt (tâche et contrôle), convolués avec la réponse hémodynamique canonique, avec les dérivés spatiales et temporelles associées (trois hemodynamic response function [HRF]). Les paramètres de mouvements ainsi que les paramètres comportementaux ont été modélisés comme des régresseurs de non-intérêt. L’objectif étant de prendre en compte la contribution de ces régresseurs dans le signal BOLD, sans tester directement leur effet. Ils permettent donc d’avoir une meilleure estimation du signal et de l’erreur résiduelle. Le modèle linéaire général a été utilisé pour générer des paramètres estimés d’activation pour chaque voxel, chaque condition et chaque patiente. Pour chaque condition, RS et DR, nous avons calculé :
- les contrastes principaux tâche versus contrôle pour identifier les réseaux langagiers recrutés pour chacune des tâches ;
- les contrastes avant versus après rééducation afin d’identifier l’effet de la rééducation sur les réseaux du langage.
Résultats
Acoustiques
22 Les performances des patientes pour les répétitions de phonèmes sont présentées dans le tableau 3. P1 améliore ses performances après rééducation, puisque le pourcentage de réponses correctes augmente, avec 57,72 % de phonèmes corrects après rééducation (97,44 % pour les voyelles et 43,64 % pour les consonnes) contre 48,98 % avant (94,87 % pour les voyelles et 32,41 % pour les consonnes). Cette augmentation est associée à une diminution du pourcentage d’erreurs de voisement pour les consonnes (de 24,07 % à 17,27 %), suggérant un meilleur contrôle du larynx après rééducation. On observe également une diminution du pourcentage de répétitions incorrectes, indiquant un meilleur contrôle du lieu et du mode d’articulation (position de la langue). Enfin, le pourcentage de phonèmes émergents diminue (de 2,04 % à 0,67 %), suggérant une amélioration du contrôle dynamique des articulateurs du langage lors de la production des phonèmes. Pour P2, on observe une augmentation du pourcentage de voyelles correctes après rééducation (de 48,72 % à 50 %), même si le pourcentage de consonnes correctes diminue (de 55,05 % à 48,18 %). Le pourcentage d’erreurs de voisement et de phonèmes émergents reste inchangé tandis que le pourcentage de phonèmes incorrects augmente, ce qui suggère une absence d’amélioration du contrôle laryngé, du mode et du lieu de l’articulation ainsi que du contrôle dynamique des articulateurs du langage lors de la production des phonèmes.
Tableau 3
Tableau 3
23 Afin d’évaluer plus finement les productions correctes des patientes, nous avons extrait les paramètres acoustiques des voyelles orales et des consonnes fricatives correctes et émergentes. Nous avons tracé les trapèzes vocaliques pour l’orthophoniste et les patientes (figures 3 et 4). Cette comparaison (entre orthophoniste et patientes) est appropriée, étant donné que les locutrices ont des caractéristiques de conduit vocal similaires. Pour l’orthophoniste (figure 3), nous avons obtenu des résultats typiques suggérant une bonne distinction entre les voyelles (grande distance intervoyelles) et une stabilité acoustique entre les répétitions d’une même voyelle (faible distance intravoyelle). Les résultats obtenus chez P1 (figure 4 A) montrent une augmentation de la reproductibilité et une meilleure distinction des voyelles /i, y/ (diminution de la distance intravoyelle et augmentation de la distance intervoyelles) après rééducation. Ceci suggère un meilleur contrôle de l’arrondissement des lèvres. On observe également une meilleure distinction entre /o/ et /u/ (augmentation de la distance intervoyelles) après rééducation, ce qui suggère un meilleur contrôle de la position postérieure de la langue. Cependant, les résultats montrent également une dégradation de la reproductibilité entre les répétitions des voyelles /œ, e, a/ (augmentation de la distance intravoyelle) après rééducation, ce qui suggère un contrôle encore imparfait de la position de la langue. Pour P2 (figure 4 B), les résultats nous montrent une amélioration de la production des voyelles /i, y, e/ avec une meilleure reproductibilité entre les répétitions (diminution de la distance intervoyelles) et une meilleure distinction entre ces voyelles (augmentation de la distance intravoyelle). Ceci suggère un meilleur contrôle de l’arrondissement des lèvres et un meilleur positionnement antérieur de la langue. Les résultats montrent aussi une meilleure reproductibilité entre les répétitions de /a/ (diminution de la distance intervoyelles). Cependant, il n’y a pas d’amélioration pour /o, u/ avec un chevauchement entre ces voyelles, suggérant un mauvais contrôle postérieur de la langue. Certaines voyelles ne sont pas produites avant et/ou après rééducation, tel que le /ø/ qui n’est produit ni avant ni après rééducation et /œ/ produit avant mais pas après rééducation, suggérant un contrôle imparfait de la langue chez P2.
Figure 3
Figure 3
Trapèze vocalique représentant les valeurs de formant F1 en fonction de F2, pour les productions vocaliques de l’orthophoniste, avant et après la rééducation de P1. Les valeurs des formants correspondent aux voyelles orales /i, e, ε, a, y, ø, œ, u, o, ɔ/ isolées à partir des répétitions de l’orthophoniste (six répétitions pour chaque voyelle sauf /y/ qui a été répétée cinq fois). Ce trapèze permet d’identifier la position de la langue dans la cavité buccale selon les axes antéropostérieur (F2) et haut-bas (F1). On observe sur l’ensemble des répétitions une distance intravoyelle faible (bonne reproductibilité des répétitions) et distance intervoyelles élevée (bonne distinction des voyelles entre elles).Figure 4
Figure 4
Trapèze vocalique représentant les valeurs de formant F1 en fonction de F2, obtenu à partir des répétitions de P1 (A) et P2 (B) (trois répétitions avant et trois répétitions après rééducation de chaque voyelle). Seuls les formants des répétitions jugées correctes ou émergentes par le transcripteur ont été représentés graphiquement. Les voyelles pour lesquelles on observe une amélioration après rééducation sont entourées par une ellipse bleue ; les voyelles avec prononciation détériorée sont entourées par une ellipse rouge.24Pour les consonnes fricatives correctes et émergentes, les valeurs des moments spectraux sont représentées par des diagrammes en boîtes à moustache (figure 5). Les résultats de P1 (figure 5 a-d) nous montrent que la patiente ne peut pas produire les fricatives alvéolaires avant rééducation alors qu’elle en est capable après rééducation, avec deux répétitions correctes de /s/ sur six. Lorsque le /s/ est produit de façon incorrecte, P1 produit en majorité la fricative post-alvéolaire [ʃ] (mode d’articulation correct mais lieu d’articulation incorrect, la langue étant trop en arrière), mais aussi [t, d] (lieu d’articulation correct mais mode d’articulation incorrect) et [f] (mode d’articulation correct mais lieu d’articulation incorrect). De plus, au lieu de prononcer /z/, P1 prononce [ʃ] ou [ʒ] (lieu d’articulation correct mais mode d’articulation incorrect, la langue est trop en arrière). Les valeurs du CG (figure 5 a, b) indiquent que P1 distingue bien /s/ de /ʃ/ après rééducation (CG : alvéolaires > post-alvéolaires). Les valeurs d’ET (figure 5 c, d) indiquent que P1 distingue mieux /f, v/ de /s, z/ et /ʃ, ʒ/ après rééducation (ordre typique : labiodentales > alvéolaires > post-alvéolaires). Pour P2 (figure 5 e-h), les résultats indiquent qu’elle ne peut pas produire les fricatives post-alvéolaires ni avant ni après rééducation. En effet, au lieu de produire /ʃ, ʒ/, P2 produit [s] (mode d’articulation correct mais lieu d’articulation incorrect, la langue étant placée trop en arrière). Les valeurs du CG (figure 5 e, f) indiquent que P2 produit correctement les fricatives alvéolaires et labiodentales, avant et après rééducation. Cependant, les valeurs d’ET (figure 5 g, h) mettent en évidence une production atypique des fricatives alvéolaires et post-alvéolaires (les valeurs ne suivent pas l’ordre typique), suggérant une production atypique du /f/.
Figure 5
Figure 5
Diagrammes en boîtes à moustache représentant les valeurs des deux premiers moments spectraux (centre de gravité [CG] et écart-type [ET]) avant et après rééducation, pour P1 (a-d) et pour P2 (e-h). Les moments spectraux sont déterminés lors de la production des consonnes fricatives alvéolaire /s, z/, labiodentales /f, v/ et post-alvéolaires /ʃ, ʒ/. Seuls les moments spectraux des consonnes fricatives jugées correctes ou émergentes par le transcripteur ont été représentés.25Ces différents résultats suggèrent que P1 progresse en termes de pourcentage de productions correctes mais aussi dans la qualité de la production de certaines voyelles et consonnes sur le plan acoustique. Cependant, les résultats de P2 sont plus mitigés. En effet, P2 semble progresser pour certaines voyelles mais reste incapable de prononcer les consonnes fricatives post-alvéolaires après rééducation.
Bilan orthophonique
26Les performances aux différentes tâches de langage sont présentées dans le tableau 2. Les résultats montrent qu’avant la rééducation, les patientes présentaient des troubles de répétition, dénomination, fluence verbale et lecture. L’analyse de résultats par item a montré que les patientes présentaient des paraphasies phonémique et phonologique, avant rééducation. Cependant, les patientes ne présentaient pas de troubles de la compréhension ni d’apraxie de la parole. Après rééducation, les patientes présentaient une amélioration. Typiquement, l’IE indique que P1 s’est améliorée pour la répétition, la lecture, la dénomination et le jugement de rimes, mais pas pour la fluence verbale et alphabétique. P2 progresse pour la répétition et la dénomination, cependant, ses performances déclinent pour la lecture et le jugement de rimes. Cette patiente présente des troubles de mémoire de travail et de fluence verbale, maintenus après rééducation. Les résultats montrent que les performances de langage se sont améliorées de façon plus significative chez P1 mais moins chez P2. Par ailleurs, chez P2, la rééducation semble perturber la lecture et l’accès au lexique phonologique d’entrée.
IRM fonctionnelle
27Les résultats en IRMf sont présentés dans le tableau 4. Pour P1 (tableau 4 A), lors de la DR, on observe un effet modulateur de la rééducation au niveau des gyri précentral, frontal supérieur et médian gauche, des gyri frontal supérieur et frontal médian (GFM) droit et du cervelet droit (Crus I). Lors de la RS on observe un effet modulateur de la rééducation au niveau du GFI (pars orbitalis) et de l’insula gauche. Pour P2 (tableau 4 B), lors de la DR, on observe un effet modulateur de la rééducation au niveau des gyri lingual et frontal supérieur (pars orbitalis) gauche. Lors de la RS, on observe un effet de la rééducation sur l’aire motrice supplémentaire (AMS), le gyrus post-central gauche, ainsi que le GFI (pars orbitalis) et le GFM droit.
Activations cérébrales obtenues pour P1 (A) et P2 (B) durant les tâches de détection de rimes (DR) et répétition de syllabes (RS), avant versus après rééducation
Activations cérébrales obtenues pour P1 (A) et P2 (B) durant les tâches de détection de rimes (DR) et répétition de syllabes (RS), avant versus après rééducation
Discussion et conclusion
28Dans cette étude, nous avons évalué un programme de rééducation de la parole basé sur l’IPM, illustré chez deux patientes présentant une aphasie non fluente chronique post-AVC. L’efficacité de ce programme de rééducation a été évaluée de façon multimodale, en comparant, avant et après rééducation, des paramètres acoustiques, langagiers et neurophysiologiques.
29P1 présentait une aphasie non fluente associée à une hémiparésie droite, suite à une lésion frontale gauche après un AVC dans le territoire antérieur de l’artère sylvienne gauche (figure 1, tableau 1). L’augmentation de la proportion de phonèmes corrects, associée à la diminution de la proportion de sons incorrects, émergents et d’erreurs de voisement après la rééducation (tableau 3), suggère une amélioration du contrôle dynamique des articulateurs de parole, du contrôle laryngé et du lieu et du mode d’articulation. Par ailleurs, l’amélioration des paramètres acoustiques, pour les productions correctes, suggère un meilleur contrôle de l’arrondissement des lèvres (meilleure distinction entre /i/ et /y/) et du positionnement postérieur de la langue (meilleure distinction entre /o/ et /u/). Cependant, le contrôle de la langue reste encore imparfait (mauvaise reproductibilité pour /œ, e, a/) (figure 4 A). Pour les consonnes fricatives, les valeurs du CG indiquent une bonne distinction de /s/ et /ʃ/ après rééducation (figure 5 a-d). Il apparaît également que P1 distingue mieux les labiodentales des alvéolaires et post-alvéolaires. L’évaluation des performances langagières met en évidence une amélioration des performances (IE positif) au niveau de la production du langage, avec une amélioration des processus phonologiques et articulatoires (tableau 2). Cependant, les performances en fluence alphabétique semblent décliner (IE négatif), ce qui suggère que P1 présente des difficultés lors de la récupération des mots. Ceci pourrait relever d’un défaut de compétences lexicales mais également d’un déficit de contrôle cognitif et fonctions exécutives, souvent rencontré chez les patients aphasiques, et qui interfère avec la récupération [24]. Pour la DR, les résultats en IRMf (tableau 4 A) montrent, après rééducation, des activations au niveau du gyrus précentral gauche et de Crus I à droite, suggérant une implication significative de la boucle somato-sensorimotrice (telle qu’elle est décrite dans le modèle de Hickok [13]) pour réaliser la tâche. Le cervelet, et en particulier le Crus I et le lobule VI à droite, est impliqué dans les tâches de langage telles que la génération des mots. Crus I, bilatéralement, est généralement impliqué dans la mémoire de travail verbale, le traitement émotionnel et les fonctions exécutives [25]. Après rééducation, P1 recrute davantage les régions impliquées dans la mémoire de travail verbale et les processus linguistiques, notamment Crus1 du cervelet, afin de réussir la tâche de DR [13, 25-27]. Ces résultats sont en accord avec une augmentation des performances lors de la tâche de jugement de rimes réalisée lors du bilan orthophonique (IE positif, tableau 2). L’effet de la rééducation est également reflété par la modulation de l’activation du GFM droit qui sert de passerelle entre les processus top-down et bottom-up du contrôle attentionnel [28]. Ceci suggère que P1 recrute davantage de ressources attentionnelles afin de réussir la tâche. Ainsi, on peut supposer un renforcement de l’interaction somato-sensorimotrice mis en évidence par le recrutement supplémentaire des régions impliquées dans cette boucle somato-sensorimotrice [13], après la rééducation, mais également une amélioration de la programmation motrice et de l’attention. De plus, les régions impliquées dans la boucle somato-sensorimotrice sont à l’origine des caractéristiques au niveau articulatoire et donc associées à la configuration du conduit vocal [13]. Ainsi, un renforcement de cette boucle confirme les résultats du bilan acoustique et suggère une amélioration du contrôle dynamique des articulateurs de la parole, du contrôle laryngé et du lieu et mode d’articulation (figure 4 A et tableau 3). Lors de la RS on observe après rééducation, une implication du GFI (pars orbitalis) gauche qui est impliqué dans l’activation des programmes moteurs syllabiques, avec récupération des gestes articulatoires de la parole, ainsi que dans l’encodage phonétique et phonologique de sortie [4, 13]. Ainsi, cette activation suggère un meilleur contrôle de l’encodage phonétique avec facilitation de l’accès au lexique phonologique de sortie sollicité dans cette tâche, et un renforcement de l’interaction auditivomotrice. Ces résultats sont en accord avec la valeur positive de l’IE pour la répétition (tableau 2). On observe également une activation de l’insula gauche, suggérant une amélioration de la coordination des mouvements articulatoires intra- et inter-syllabiques, durant la production de la parole [29]. De plus, l’insula gauche et l’aire de Broca sont impliqués dans le réseau de planification du langage [4]. Ainsi, ces résultats suggèrent que la rééducation permet une amélioration de l’interaction auditivomotrice mais également de la coordination articulatoire et de la planification du langage.
30P2 présentait initialement une aphasie globale, induite par une lésion fronto-temporopariétale, suite à un AVC au niveau de l’artère sylvienne gauche (figure 1, tableau 1). Bien qu’initialement globale, l’aphasie était non fluente au moment de l’inclusion de cette patiente dans l’étude. Sur la base de ses performances acoustiques, P2 montre une amélioration de la production de certaines voyelles, mais sans amélioration pour les consonnes. Par ailleurs, les résultats obtenus indiquent qu’il n’y a pas d’amélioration du contrôle dynamique des articulateurs de la parole (tableau 3). Les paramètres acoustiques des voyelles indiquent un meilleur contrôle de l’arrondissement des lèvres et du positionnement de la langue en avant, après rééducation, reflété par une meilleure reproductibilité et meilleure distinction des voyelles /i, y, e/. On observe également une meilleure reproductibilité de la voyelle /a/, même si le contrôle de la langue apparaît encore imparfait, étant donné l’incapacité de P2 à produire certaines voyelles (/o, u, ø, œ/) avant et/ou après rééducation (figure 4 B). Par ailleurs, P2 est incapable de produire les fricatives post-alvéolaires avant et après rééducation, le positionnement de la langue restant encore imparfait (langue trop en arrière). Cependant, les valeurs du CG suivent l’ordre typique pour les fricatives alvéolaires et labiodentales. Les valeurs d’ET suggèrent une production atypique des fricatives labiodentales (figure 5 e-h). L’analyse qualitative des scores de langage indique que P2 présente des déficits en mémoire de travail avant et après rééducation. La comparaison des scores de langage montre une amélioration pour les tâches de dénomination et de répétition (IE positif) et un déclin pour le jugement de rimes (IE négatif, tableau 2). Lors de la DR en IRMf, nous observons après rééducation, une activation du gyrus frontal supérieur (orbitalis) gauche ce qui, combinée à la valeur négative de l’IE pour cette tâche, pourrait refléter l’échec de la patiente pour recruter des régions nécessaires pour réaliser le traitement phonologique nécessaire pour la DR (tableau 4 B). On observe également une activation du gyrus lingual impliqué dans le traitement des mots présentés visuellement, tels que ceux présentés dans les stimuli de la tâche de DR, ce qui suggère que P2 fait appel à une stratégie visuographique pour réaliser cette tâche [30]. La RS induit, après rééducation, une activation de l’AMS (programmation motrice) et du gyrus post-central (aire somesthésique primaire) à gauche, suggérant une augmentation de l’interaction somato-sensorimotrice et un effort supplémentaire de P2 pour la programmation motrice de la prononciation des phonèmes. On observe également une activation du GFM droit suggérant un recrutement supplémentaire des ressources attentionnelles, pour réussir la tâche. Enfin, l’activation supplémentaire du GFI droit après rééducation pourrait être associée à la prise de décision au niveau phonologique [31]. Ainsi, l’IE positif pour la tâche de répétition, indiquant l’amélioration après la rééducation, pourrait suggérer un meilleur contrôle de l’interaction somato-sensorimotrice, de l’encodage phonétique et du traitement du lexique phonologique de sortie. Au vu de ces résultats, nous suggérons que l’IPM a peu d’effet et perturbe plutôt la production de la parole chez P2. En effet, au niveau du bilan orthophonique, la dégradation des scores de jugement de rimes (défaut d’accès au lexique phonologique d’entrée) ainsi que les troubles de mémoire de travail pourraient être expliqués par la taille et la localisation de la lésion, qui s’étend au-delà de la région frontale, vers les régions temporopariétales. L’intégrité des régions temporales et pariétales est, en effet, nécessaire pour l’intégration multisensorielle et, dans ce cadre, justifie l’utilisation d’une méthode fondée sur l’IPM. Le cortex pariétal est impliqué dans la représentation corporelle, recevant en entrée des informations multisensorielles (auditives, visuelles, somatosensorielles et proprioceptives) générant après intégration un signal, transmis aux cortex pré-moteur et moteur. Ainsi, cette région est impliquée dans la coordination vision-proprioception-audition-articulation [32, 33].
31Le programme de rééducation utilisé dans cette étude demande aux patients d’associer un son (retour auditif de leur propre production et du son préenregistré comme modèle) aux mouvements articulatoires correspondants (retours somesthésique et proprioceptif de leur propre production), avec l’intervention supplémentaire de l’information visuelle des mouvements linguaux (visualisés grâce au logiciel). Nous suggérons que la visualisation de l’information articulatoire permettrait une amélioration de la représentation de la langue et un meilleur contrôle moteur, lorsqu’on ajoute les retours auditif, somesthésique et proprioceptif. Ainsi, la lésion plus étendue chez P2 (atteinte des régions fronto-temporopariétales) pourrait expliquer l’absence d’amélioration de la parole, due à l’incapacité d’associer l’image visuelle des mouvements linguaux aux informations somesthésique, proprioceptive et au son correspondant. Ainsi, nous suggérons que cette lésion étendue chez P2 pourrait limiter l’interaction auditivomotrice, cruciale dans ce type de rééducation.
32 Les résultats obtenus dans cette étude nous montrent une amélioration variable de la parole selon les patients. Plus spécifiquement, l’IPM a un effet bénéfique sur les performances de P1 mais l’effet est nul, voire défavorable, pour P2. Les différences en termes d’efficacité de la méthode de rééducation chez les deux patientes pourraient être expliquées non seulement en termes de localisation de la lésion (frontale chez P1 et étendue aux régions fronto-temporopariétales chez P2), mais également par d’autres facteurs, tels que : le tableau clinique (aphasie de Broca chez P1 et aphasie globale ayant évolué en aphasie de Broca chez P2), l’historique, le traitement (16 séances chez P1 dont trois avec l’orthophoniste et neuf chez P2), le délai depuis la survenue de l’AVC (trois ans chez P1 et quatre ans chez P2). Une combinaison de plusieurs mécanismes pourrait donc intervenir dans la récupération. Celle-ci peut soit survenir de façon spontanée et, dans ce cas, la récupération est dépendante de facteurs tels que la localisation ou encore la taille de la lésion, soit être liée à des facteurs externes tels que la rééducation (type, motivation, durée). Dans ce contexte, et pour ces patientes, il reste donc assez spéculatif de mettre en évidence des schémas spécifiques de réorganisation et de récupération liés à des facteurs spécifiques, compte tenu des multiples mécanismes et stratégies qui ont pu se produire tout au long de la pathologie post-AVC. Toutefois, sur les données en IRMf, malgré la bilatéralité de certaines activations (notamment chez P1), on observe une réactivation de certaines régions au niveau de l’hémisphère gauche en accord avec une amélioration des performances. Des études ont montré que la récupération du langage s’accompagne d’activation au niveau de l’hémisphère gauche (au niveau péri-lésionnel) chez des patients aphasiques non fluents chroniques [34, 35] mais également que les modifications au niveau fonctionnel (modifications du signal BOLD) sont corrélées à une amélioration des performances au niveau langagier (parole, compréhension etc.) chez des patients aphasiques en phase chronique [34, 36-38]. Dans cette étude, nous avons pu montrer que la méthode de rééducation basée sur l’IPM permet une amélioration des performances sur le plan langagier, mais également sur le plan phonétique et articulatoire, notamment chez P1. Cette amélioration s’accompagne d’une modulation des réseaux cérébraux avec une réactivation des régions impliquées dans le langage, situées au niveau de l’hémisphère gauche, ce qui suggère une efficacité de la réorganisation cérébrale [34]. Au niveau cérébral, on observe un renforcement des interactions auditivo- et somato-sensorimotrices, décrites par Hickok [13], pour P1 (uniquement somato-sensorimotrice pour P2). Chez P1, pour qui l’efficacité de la méthode est démontrée, on constate une amélioration au niveau du contrôle des articulateurs de la parole (amélioration du contrôle dynamique des articulateurs de la parole, du contrôle laryngé et du lieu et mode d’articulation), ce qui est en accord avec le renforcement de l’interaction somato-sensorimotrice. En effet, cette boucle intègre les régions associées à la représentation somatosensorielle du phonème – i.e. les caractéristiques articulatoires associées à la configuration du conduit vocal lors de la production de la parole [13]. Les résultats de cette étude suggèrent que la rééducation basée sur l’IPM peut être considérée comme une méthode de rééducation utile, en complément des méthodes classiques, pour améliorer les performances du langage oral chez des patients ayant une aphasie non fluente chronique (de type Broca), avec une lésion au niveau frontal (sans atteinte des régions temporopariétales impliquées dans l’intégration vision-audition-proprioception-somesthésie).
33 Ces résultats sont toutefois à considérer avec précaution. En effet, il s’agit de résultats préliminaires qui doivent être validés statistiquement avec une cohorte plus importante de patients. Il reste également un ensemble de questions à considérer, tel que : évaluer séparément l’effet de la rééducation classique et de la rééducation IPM, évaluer l’effet de la plasticité spontanée chez ces patients, préciser le nombre et la durée des séances de rééducation, ainsi que la possibilité d’effectuer des analyses quantitatives basées sur des mesures répétées des performances des patients, tout au long de leur évolution pathologique. Cependant, ces résultats, même s’ils sont qualitatifs, révèlent le potentiel de cette méthode de rééducation de la production de la parole, en phase chronique. Il s’agit d’une étude de preuve de concept qui évalue l’efficacité de l’IPM, via le logiciel Ultraspeech player, sur la récupération de la parole et sur la plasticité du langage, qui a le mérite de montrer :
- l’intérêt d’utiliser, même en autonomie, et en phase chronique, une nouvelle méthode de rééducation de la parole ;
- l’intérêt d’une évaluation multimodale de l’effet de la récupération de la parole (langage, signal de parole et activation cérébrale).
35 Enfin, étant donné le rôle des régions temporopariétales, leur implication dans l’intégration multisensorielle (vision-audition-somesthésie-proprioception) et les résultats obtenus, nous soulignons l’importance d’utiliser l’IPM chez des patients aphasiques non fluents pour lesquels l’intégrité structurelle des régions temporopariétales est conservée.
Liens d’intérêt
36 les auteurs déclarent ne pas avoir de lien d’intérêt en rapport avec cet article.
Bibliographie
Références
- 1 . Cortese M.D., Riganello F., Arcuri F., et al. Rehabilitation of aphasia : application of melodic-rhythmic therapy to Italian language. Front Hum Neurosci 2015 ; 9.
- 2 . Viader F., Lambert J., de La Sayette V., et al. Aphasie. Encycl Méd-Chir Neurol 2002 ; 17 : 1-32.
- 3 . Hamilton R.H., Chrysikou E.G., Coslett B. Mechanisms of Aphasia Recovery After Stroke and the Role of Noninvasive Brain Stimulation. Brain Lang 2011 ; 118 : 40-50.
- 4 . Acher A, Fabre D, Hueber T, et al. « Retour visuel en aphasiologie : résultats comportementaux, acoustiques et en neuroimagerie ». In : Joyeux N, Topouzkhanian S (eds). XVI es Rencontres Internationales d’Orthophonie. Orthophonie et technologies innovantes. Paris : Ortho Edition, 2016. pp. 227-60.
- 5 . Breitenstein C., Grewe T., Flöel A., et al. Intensive speech and language therapy in patients with chronic aphasia after stroke : a randomised, open-label, blinded-endpoint, controlled trial in a health-care setting. Lancet Lond Engl 2017 ; 389 : 1528-1538.
- 6 . Badin P, Elisei F, Bailly G, et al. “An Audiovisual Talking Head for Augmented Speech Generation : Models and Animations Based on a Real Speaker's Articulatory Data”. In : Perales FG, Fisher RB (eds). Proceedings of the Vth Conference on Articulated Motion and Deformable Objects (AMDO 2008). Berlin, Heidelberg (Germany) : Springer Verlag 2008. pp. 132-43.
- 7 . Fabre D, Hueber T, Canault M, et al. « Apport de l’échographie linguale à la rééducation orthophonique ». In : Joyeux N, Topouzkhanian S (eds). XVI es Rencontres Internationales d’Orthophonie. Orthophonie et technologies innovantes. Paris, France : Ortho Edition, 2016. pp. 199-225.
- 8 . Mcgurk H., Macdonald J. Hearing lips and seeing voices. Nature 1976 ; 264 : 746-748.
- 9 . Sumby W.H., Pollack I. Visual Contribution to Speech Intelligibility in Noise. J Acoust Soc Am 1954 ; 26 : 212-215.
- 10 . Hueber T. Ultraspeech-player : Intuitive visualization of ultrasound articulatory data for speech therapy and pronunciation training. In : Proceedings of Interspeech (show & tell). Lyon, France : 2013. pp. 752-3.
- 11 . Fagel S, Madany K. A 3-D virtual head as a tool for speech therapy for children. In : Proceedings of Interspeech. Brisbane (Australia) : 2008. pp. 2643-6.
- 12 . Menin-Sicard A, Sicard E, Bezard M. « Intérêt de la visualisation de la position et du mouvement des articulateurs pour améliorer l’intelligibilité : Plate-forme Diadolab ». In : Joyeux N, Topouzkhanian S (eds). XVI es Rencontres Internationales d’Orthophonie. Orthophonie et technologies innovantes. Paris (France) : Ortho Edition, 2016. pp. 261-89.
- 13 . Hickok G. Computational neuroanatomy of speech production. Nat Rev Neurosci 2012 ; 13 : 135-145.
- 14 . Deloche G., Hannequin D. DO 80 : Test de dénomination orale d’images. Paris, France : Editions du Centre de Psychologie appliquée, 1997.
- 15 . Baudo K, Vernisse AL. Influence de la mémoire de travail sur l’ordre de réussite aux épreuves métaphonologiques. [Mémoire pour l’obtention du Certificat de capacité d’orthophonie.] 2001.
- 16 . Nespoulous J.L., Lecours A.R., Lafond D. MT-86-Protocole Montréal-Toulouse d’examen linguistique de l’aphasie. Isbergues, France : Ortho-Edition, 1986.
- 17 . Saur D., Kreher B.W., Schnell S., et al. Ventral and dorsal pathways for language. Proc Natl Acad Sci 2008 ; 105 : 18035-18040.
- 18 . Boersma P., Weenink D.Praat : doing phonetics by computer 2010http://www.praat.org/.
- 19 . R Development Core Team. R : A language and environment for statistical computing. Vienna (Austria) : R Foundation for Statistical Computing 2008. http://www.R-project.org..
- 20 . Adank P., Smits R., van Hout R. A comparison of vowel normalization procedures for language variation research. J Acoust Soc Am 2004 ; 116 : 3099-3107.
- 21 . Li F., Edwards J., Beckman M.E. Contrast and covert contrast : The phonetic development of voiceless sibilant fricatives in English and Japanese toddlers. J Phon 2009 ; 37 : 111-124.
- 22 . Nissen S.L., Fox R.A. Acoustic and spectral characteristics of young children's fricative productions : A developmental perspective. J Acoust Soc Am 2005 ; 118 : 2570-2578.
- 23 . Nickels L. Therapy for naming disorders : Revisiting, revising, and reviewing. Aphasiology 2002 ; 16 : 935-979.
- 24 . Brownsett S.L.E., Warren J.E., Geranmayeh F., et al. Cognitive control and its impact on recovery from aphasic stroke. Brain 2014 ; 137 : 242-254.
- 25 . Stoodley C.J., Valera E.M., Schmahmann J.D. Functional topography of the cerebellum for motor and cognitive tasks : an fMRI study. NeuroImage 2012 ; 59 : 1560-1570.
- 26 . Stoodley C.J., Schmahmann J.D. Functional topography in the human cerebellum : a meta-analysis of neuroimaging studies. NeuroImage 2009 ; 44 : 489-501.
- 27 . Mariën P., Ackermann H., Adamaszek M., et al. Consensus paper : Language and the cerebellum : an ongoing enigma. Cerebellum 2014 ; 13 : 386-410.
- 28 . Japee S., Holiday K., Satyshur M.D., et al. A role of right middle frontal gyrus in reorienting of attention : a case study. Front Syst Neurosci 2015 ; 9.
- 29 . Baldo J.V., Wilkins D.P., Ogar J., et al. Role of the precentral gyrus of the insula in complex articulation. Cortex 2011 ; 47 : 800-807.
- 30 . Kuriki S., Takeuchi F., Hirata Y. Neural processing of words in the human extrastriate visual cortex. Cogn Brain Res 1998 ; 6 : 193-203.
- 31 . Hartwigsen G., Price C.J., Baumgaertner A., et al. The right posterior inferior frontal gyrus contributes to phonological word decisions in the healthy brain : Evidence from dual-site TMS. Neuropsychologia 2010 ; 48 : 3155-3163.
- 32 . Culham J.C., Cavina-Pratesi C., Singhal A. The role of parietal cortex in visuomotor control : What have we learned from neuroimaging? Neuropsychologia 2006 ; 44 : 2668-2684.
- 33 . Ishida H., Nakajima K., Inase M., et al. Shared mapping of own and others’ bodies in visuotactile bimodal area of monkey parietal cortex. J Cogn Neurosci 2010 ; 22 : 83-96.
- 34 . Saur D., Lange R., Baumgaertner A., et al. Dynamics of language reorganization after stroke. Brain 2006 ; 129 : 1371-1384.
- 35 . Cornelissen K., Laine M., Tarkiainen A., et al. Adult Brain Plasticity Elicited by Anomia Treatment. J Cogn Neurosci 2003 ; 15 : 444-461.
- 36 . Léger A., Démonet J.-F., Ruff S., et al. Neural Substrates of Spoken Language Rehabilitation in an Aphasic Patient : An fMRI Study. NeuroImage 2002 ; 17 : 174-183.
- 37 . Meinzer M., Flaisch T., Breitenstein C., et al. Functional re-recruitment of dysfunctional brain areas predicts language recovery in chronic aphasia. NeuroImage 2008 ; 39 : 2038-2046.
- 38 . Musso M., Weiller C., Kiebel S., et al. Training-induced brain plasticity in aphasia. Brain 1999 ; 122 : 1781-1790.