Licence CC BY-NC-ND

Apprentissage de la lecture

Des mythes pédagogiques aux faits scientifiques

Publié :
Auteurs :

Catégories :

Apprendre à lire est une chose importante, et ceux qui n'y arrivent pas sont souvent promis à un avenir sombre. De nos jours, l’analphabétisme et l’illettrisme sont relativement rares, et ne concernent que 5% de la population, selon les études réalisées lors de la Journée d'Appel de Préparation à la Défense. Selon les études PIRLS, la majorité des difficultés portent essentiellement sur la compréhension de texte.

Cependant, quiconque est familier avec le domaine de l'éducation sait que d'interminables débats sont toujours en cours concernant l’efficacité des différentes méthodes de lecture. Cette querelle sur les méthodes de lecture est relativement caricaturée dans les débats grand public, ainsi que dans la majorité des productions sur le sujet, en une confrontation entre deux camps : les méthodes globales (et semi-globales), et syllabiques.

Cet article vise à faire une synthèse des faits avérés les plus importants sur l'apprentissage de la lecture, en se basant sur les données des neurosciences et de la psychologie cognitive, et des pratiques réellement appliquées dans les classes. Cet article n'est pas totalement exhaustif, même si l'auteur cherche à rendre celui-ci le plus complet possible.

Lire : un double processus

Lire est un processus qui fait intervenir diverses zones de notre cerveau, et qui se base sur plusieurs processus : comprendre le sens d'un texte demande l'usage de la mémoire, de nos capacités intellectuelles, d'automatismes liés à la syntaxe, etc. Dans les grandes lignes, comprendre un texte ou un discours implique deux types de processus relativement bien séparés :

  • un processus purement perceptif de reconnaissance des mots et lettres ;
  • et de nombreux processus syntaxiques et sémantiques.

Reconnaissance des mots

L'ensemble des connaissances sur le vocabulaire forme ce qu'on appelle le lexique mental, ou mémoire lexicale. Celui-ci permet de savoir comment prononcer un mot ou comment l'écrire. Il contient aussi les symboles comme les lettres, les syllabes, les sons d'une langue (maternelle ou non), les chiffres, certains nombres, et toutes les notations possibles et imaginables (comme les notations mathématiques, par exemple).

Vision et audition sont des portes d'entrée qui permettent d’accéder à ce lexique mental. Dans le cas d'un discours oral, la reconnaissance des mots fait intervenir l'audition. Dans le cas d'un texte, les mots sont perçus par notre œil : lire implique donc la vision, jusqu'à un certain point.

Chez la personne qui a appris à lire, la reconnaissance des mots connus est un processus automatique. Pour le prouver, on peut utiliser l'effet Stroop, qui nous dit que réprimer des automatismes a tendance à allonger les temps de réaction. Et c'est ce qu'on observe dans le cas de la reconnaissance des mots.

Par exemple, si on vous demande de donner la couleur d'un mot, vous prendrez beaucoup plus de temps si jamais le mot que question est un adjectif de couleur qui ne correspond à la couleur dans laquelle le mot est écrit : cela vient du fait que le processus automatique de reconnaissance du mot entre en conflit avec le processus d'identification de la couleur, et doit être inhibé.

Exemple de mots qui peuvent déclencher un effet stroop

Ce processus de reconnaissance des mots, est la première compétence travaillée par les méthodes de lecture : si l'enfant ne sait pas reconnaitre les mots d'un texte, il ne peut évidemment pas comprendre celui-ci. Donc, l'apprentissage de la lecture doit forcément travailler la reconnaissance de mots isolés en premier lieu.

Compréhension

Les processus sémantiques sont impliqués dans la compréhension d'un texte ou d'un discours oral, la mémorisation et le raisonnement. Ils utilisent non pas le lexique mental, mais la mémoire sémantique, une sous-portion de la mémoire qui stocke la signification des mots et nos connaissances sur les objets ou événements.

L'accès à cette mémoire sémantique se fait via le lexique mental : l'accès d'un mot dans le lexique mental va automatiquement activer le ou les concepts qui correspondent en mémoire sémantique. Ainsi, la seule différence entre lecture et compréhension du langage oral tient dans la porte d'entrée utilisée.

Pour faire très simple, comprendre un texte ou un discours consiste à former des relations entre connaissances présentes en mémoire sémantique, et à utiliser ces connexions pour récupérer l'information adéquate. Ces processus de formation d'associations d'idées utilisent la mémoire de travail, ainsi que nos connaissances antérieures en mémoire sémantique. Améliorer la compréhension est donc assez difficile, et seuls quelques paramètres limités ont une influence.

Pour commencer, les expériences sur les élèves montrent clairement que plus l'élève apprend à lire, plus la lecture devient économe en mémoire de travail. Cela a un effet assez positif sur la vitesse de lecture, mais aussi sur la compréhension de texte : si le déchiffrage des mots utilise de moins en moins d'attention et de mémoire de travail, ces ressources peuvent alors être réutilisées pour comprendre le texte lu. Ainsi, les mauvais décodeurs ont des difficultés pour comprendre un texte.

On sait aussi que plus le vocabulaire d'un enfant est développé, plus ses capacités de compréhension sont bonnes. Cela provient du fait qu'un vocabulaire développé est souvent relié à une mémoire sémantique développée, remplie de connaissances, de concepts, et d'idées. Pour résumer, plus on sait de choses, plus on peut facilement en comprendre ou en mémoriser d'autres : le savoir appelle le savoir.

Modèles cognitifs de la reconnaissance des mots

On peut se demander si les mots sont prononcés intérieurement lors de la lecture, y compris chez ceux qui ont appris à lire. Et à ce petit jeu, les différents modèles de reconnaissance des mots ne sont pas d'accord :

  • certains pensent que la prononciation des mots est la seule méthode d'accès au lexique mental : on doit traduire les groupes de lettres en sons et prononcer le mot mentalement pour y accéder ;
  • d'autres pensent que la reconnaissance des mots est purement visuelle.

Modèle du déchiffrage total

Une théorie de la médiation phonologique prétend que la lecture passe obligatoirement par une prononciation des mots : nous traduisons l'écriture du mot en sons, pour obtenir la prononciation du mot lu.

Selon cette théorie, nous prononçons les mots et percevons la parole en la décomposant en composants élémentaires : les phonèmes. Définir les phonèmes est compliqué, mais nous allons simplifier en disant que les phonèmes sont des sons élémentaires, les plus petites unités sonores que l'être humain peut manipuler. Les syllabes sont ainsi composées de plusieurs phonèmes, qui sont assemblés ensembles, prononcés l'un après l'autre.

Le principe alphabétique stipule que chaque lettre est attribuée à un ou plusieurs phonèmes : chaque phonème est un son qui correspond à une lettre. Par exemple, dans la syllabe "mo", il y a un phonème qui correspond au "m", et un autre au "o" : essayez de décomposer cette syllabe, vous verrez que vous y arriverez (du moins, vous en aurez l'impression…).

On peut noter qu'il existe des cas où un son correspond à un groupe de plusieurs lettres. Ces groupes sont nommés des graphèmes. Dans la suite de cet article, j'utiliserais le terme "lettre" pour faire référence à ces graphèmes, et le terme "son" et lieu et place de phonème, par souci de vulgarisation.

La lecture serait une simple automatisation du déchiffrage des lettres en phonèmes : à force de pratique, la traduction des lettres en sons serait automatique, et prendrait de moins en moins de mémoire de travail.

Modèle de la médiation phonémique

La réalité des phonèmes

Mais ce modèle a de très nombreux problèmes. Pour commencer, il y a de fortes chances que la perception de la parole ne se base pas sur des phonèmes. Cela vient du fait que le flux de parole ne peut pas toujours être segmenté en phonèmes : c'est ce que l'on appelle le problème de la segmentation.

De plus, il est très fréquent qu'un phonème commence à être prononcé avant que la prononciation du précédent soit terminée : les phonèmes se recouvrent. La prononciation d'un phonème a ainsi tendance à altérer la prononciation des phonèmes suivants ou des précédents : c'est le phénomène de co-articulation. On peut citer l'exemple du mot "vase" : le "v" n'est pas encore terminé que le "a" a déjà commencé à être prononcé. Ce phénomène est particulièrement fréquent avec les consonnes, pour ce qui est la langue française.

Dans certains cas, deux phonèmes peuvent fusionner en un seul phonème : c'est le phénomène d'assimilation. Par exemple, si l'on doit prononcer deux "t" à la suite (comme dans "cette table"), le premier "t" n'est pas prononcé comme le second, alors qu'il s'agit du même phonème dans les deux cas : le premier t est prononcé de manière partielle. Même chose dans un mot comme "grammaire" : les deux phonèmes liés à la lettre "m" sont fusionnés pour donner un seul et unique "m", dont le temps de prononciation est allongé. Cela permet d'expliquer les difficultés de certains élèves avec l'orthographe des mots qui contiennent des consonnes doublées.

De même, les consonnes ne sont pas articulées de la même manière suivant la voyelle qui les suit : le "p" ne se prononce pas de la même manière dans "pépé" et dans "papa". Ce phénomène est particulièrement visible avec certaines consonnes, qui ne sont prononçables que si elles sont suivies d'une voyelle.

Quelqu'un qui a appris à segmenter les syllabes en phonèmes ne voit pas la différence, et a intériorisé ces phénomènes, qu'il peut gérer automatiquement. Mais ce n'est pas le cas des personnes qui n'ont pas appris à lire ou des enfants de 5/6 ans : par exemple, les personnes qui n’ont pas appris à lire savent parfaitement découper les mots en syllabes, mais ils ne savent pas décomposer les syllabes en phonèmes. A l'heure actuelle, on ne sait pas si la capacité à segmenter la parole en phonème est la cause de l'apprentissage du principe alphabétique, ou si c'est l'inverse, les études sur le sujet n'étant pas concluantes. Ces phénomènes font qu'acquérir une conscience phonémique est particulièrement difficile pour les Français.

Effets lexicaux

Ce modèle ne permet pas d'expliquer le fait que les mots sont beaucoup plus faciles à lire que des suites de syllabes. Dans diverses expériences, les chercheurs ont comparé les temps de réaction d'adultes et d'enfants qui devaient lire :

  • soit des mots ;
  • soit des suites de lettres qui ressemblent à des mots mais n'en sont pas : ces suites de lettres sont appelées pseudo-mots.

Le bilan de ces expériences est clair : le temps de réaction et le temps de lecture sont supérieurs pour les pseudo-mots. Par exemple, nous reconnaîtrons plus rapidement le mot "pluriel" que "prugarmif". On parle d'effet de lexicalité.

L'effet de lexicalité vaut aussi pour les pseudo-mots comparé aux suites de lettres. Les syllabes écrites sont plus faciles à lire que des suites de lettres imprononçables (Carr, Davidson, & Hawkins, 1978). Ainsi, on reconnaît plus rapidement le mot "MAVE" comme n'étant pas un mot que la suite de lettre "XEZDZ". On pourrait remarquer que les pseudo-mots sont essentiellement des suites de syllabes écrites, ce qui signifierait que les syllabes ont un impact assez important pour la lecture, mais nous ne détaillerons pas plus pour le moment.

De plus, les mots fréquents sont reconnus plus rapidement, ce qui est incompatible avec ce modèle. Celui-ci est assez facile à mettre en évidence : il suffit d'étudier les fréquences de chaque mot, et de regarder si les mots fréquents sont mieux orthographiés que les autres par l'enfant.

On peut citer l'expérience de Catherine Martinet, de l'université de Grenoble, effectuée sur une classe de première année de primaire. Elle a commencé par étudier la fréquence des mots présents dans le manuel de lecture utilisé, et a sélectionné 36 mots : 18 mots fréquents, et 18 mots rares. Le résultat est clair : les mots fréquents sont bien orthographiés dans 78% des cas, contre seulement 55% avec les mots rares.

Automatisation des correspondances

Enfin, ce modèle est aussi incompatible avec la totalité des expériences sur l'automatisation des tâches et procédures. Selon ces expériences, l'automatisation n'est possible que lorsque la correspondance entre "stimulus" et "réponse" est unique : un seul stimulus est associé à une seule réponse, et réciproquement (l'étude la plus classique à ce sujet est celle de Schneider and Shiffrin, 1977). Or, dans notre cas, le "stimulus" n'est autre que la lettre, et la réponse le phonème associé : les correspondances ne sont pas statiques, ce qui empêche définitivement toute forme d'automatisation de la lecture.

Et enfin, ce modèle est totalement incompatible l'existence de patients atteints d'alexie pure. L'alexie pure est une perte totale de la lecture : les patients sont incapables de lire, sans autre trouble apparent. Leur vision est correcte, leur prononciation et leur compréhension orale ne sont pas touchées, les capacités intellectuelles sont conservées, la reconnaissance des lettres n'est pas touchée, de même que la gestion des sons du langage est inchangée. Ces patients savent même écrire parfaitement, même s'ils sont incapables de se relire.

Modèles de chunking

Certains modèles généralisent le modèle du déchiffrage total en ajoutant une reconnaissance d'unités visuelles plus grandes que la lettre. Selon ces théories, chaque mot peut être décomposé en groupes de lettres qui correspondent chacun à un son.

Les sons qui peuvent être associés à des groupes de lettres sont multiples, mais seuls trois sont utiles pour l'apprentissage de la lecture. Le premier type d'unité est tout simplement la syllabe, qui est généralement composée d'une voyelle entourée par des consonnes. Généralement, la syllabe peut se décomposer en deux : les consonnes situées avant la voyelle forment l'attaque, et le reste s'appelle la rime.

Un lecteur novice qui utilise le principe alphabétique va essentiellement décoder lettre par lettre, tandis qu'un lecteur expérimenté va reconnaître des groupes de lettres dont il connaît la prononciation : les lettres sont reliées aux phonèmes correspondants, les syllabes écrites aux syllabes orales qui correspondent, etc. Les regroupements de lettres sont perçus comme une entité unique, prise comme un tout dans la mémoire de travail de l'élève.

Selon ces théories, la reconnaissance des mots n'est basée sur la prononciation de ces regroupements qu'au début de l'apprentissage. Après un certain temps, le cerveau finit par concevoir les mots comme des regroupements complets : les groupes de lettres qui composent le mot sont simplement regroupés en mémoire de travail, permettant de reconnaître le mot sans avoir à le prononcer.

Apprendre à lire consiste simplement à mémoriser des regroupements de base, comme des syllabes écrites ou des mots complets. Et un apprentissage explicite des syllabes écrites est clairement un plus à ce petit jeu.

Modèle d'activation interactive

McClelland et Rumelhart ont proposé un modèle de reconnaissance des mots purement visuel : le modèle d'activation interactive. Celui-ci est constitué d'un réseau de neurones, et simule relativement bien la majorité des effets liés à la reconnaissance des mots.

Dans ce modèle, notre cerveau mémorise les lettres, les mots, et quelques informations sur l'écriture des lettres : on dispose de mémoires perceptives, qui nous permettent ce genre de fantaisie. En l’occurrence, il s'agit là de la mémoire visuelle, dédiée à la reconnaissance des formes. Chaque information visuelle concernant une lettre ou un mot forme un tout, une unité mnésique. Il existe trois types d'unités :

  • les features visuelles : il s'agit de morceaux de lettres, comme des barres verticales, horizontales, ou d'autres formes élémentaires qui sont assemblées pour former des lettres ;
  • les lettres ;
  • les mots.

Modèle d'activation interactive

Ces unités sont organisées en couches reliées entre elles sur la base de l'inclusion. Par exemple, prenons le mot "Chameau" : celui-ci sera relié aux lettres qui le constituent, à savoir C, A, M, E, H, U. Même chose pour les features : chaque lettre est reliée aux features qui la compose. Ces liaisons sont ainsi des liaisons entre couches.

Quand notre cerveau perçoit une feature, celle-ci a tendance à s'activer dans notre mémoire perceptive. Mais cette activation ne reste pas en place, et se propage à travers les liens entre unités. Ainsi, la perception d'une feature va pré-activer les lettres qui contiennent cette feature. Si jamais une lettre atteint un niveau suffisant d'activation, celle-ci est alors perçue directement. Et le même phénomène se produit avec les lettres, qui peuvent activer les mots.

Il faut noter que l'activation peut aussi redescendre :

  • l'activation d'un mot peut permettre de donner un supplément d'activation aux lettres qui le constitue : cela permet d'expliquer l'effet de lexicalité ;
  • et l'activation d'une lettre peut activer les features pas encore perçues.

Il faut aussi noter que les liens ne se contentent pas de propager l'activation : certains liens peuvent permettre l'inverse. Certains liens sont ainsi des liens inhibiteurs : l'activation d'une unité peut ainsi désactiver partiellement une autre unité. Les différentes unités d'une couche sont reliées entre elles par de telles associations inhibitrices.

Ainsi, si une lettre est reconnue, les autres lettres sont désactivées. Même chose pour les mots : la reconnaissance d'un mot va inhiber la reconnaissance d'autres mots proches, histoire d'éviter tout conflit. Les mots et lettres entrent en compétition les uns avec les autres en s'inhibant mutuellement, et seul un mot ou lettre en sort vainqueur.

C'est ce qui explique que le temps d'identification d'un mot dépend de son voisinage orthographique, du nombre de mots similaires. Plus un mot ressemble à d'autres mots, plus la compétition entre mots sera longue et rude, et plus le temps d'identification sera élevé.

Par contre, ce modèle ne dit rien concernant l'effet de la conscience phonologique sur l'apprentissage de la lecture. A vrai dire, il s'agit d'un modèle très simple, qui permet d'expliquer l'identification visuelle d'un mot, mais qui ne peut rien sur les aspects phonologiques de la lecture.

De plus, il faut signaler que ce modèle n'a été testé que sur des mots de 4 lettres, c'est à dire des mots mono-syllabiques. Rien ne dit que ce modèle est applicable tel quel à des mots plus longs : il faudrait peut-être rajouter une couche qui contient des syllabes écrites pour le faire fonctionner, par exemple.

Modèle à deux voies

Un second modèle stipule qu'il existe deux voies d'accès au lexique mental, qui sont totalement indépendantes :

  • les mots familiers sont reconnus par un processus visuel ;
  • alors que les mots inconnus peu familiers sont décodés par des correspondances lettre(s)-phonème.

Le bon lecteur dispose ainsi d'une voie d'adressage visuelle et d'une voie d'assemblage phonologique. La voie d'adressage est automatisée : la reconnaissance des mots par cette voie est automatique et ne fait pas intervenir la conscience. Par contre, la voie d'assemblage n'est clairement pas automatisée : l'utilisation des correspondances lettres -> phonème se font consciemment.

Le modèle a été simulé sur ordinateur, et celui-ci donne des prédictions compatibles avec de nombreuses expériences. Le fonctionnement de la voie d'adressage n'est pas spécifié dans le modèle, mais on peut supposer que le modèle d'activation interactive pourrait suffire, avec potentiellement quelques ajouts (des syllabes écrites, par exemple).

Dans le cas des dyslexies, au moins une des deux voies serait endommagée. Si la voie d'assemblage est lésée, le patient a du mal à décoder les mots de manière phonologique : la reconnaissance des mots peu fréquents et des pseudo-mots est alors mauvaise. Lors d'atteinte de la voie d'adressage, le cobaye a du mal à lire les mots irréguliers, qui ne se prononcent pas comme ils s'écrivent (femme, par exemple).

Importance des deux voies chez le bon lecteur

On peut se demander comment ces deux voies influencent la rapidité et la qualité de la lecture. Les expériences sur le sujet portent sur des mots dont la prononciation ne varie que d'un seul phonème : on parle de voisins orthographiques.

Dans ces expériences, on présente un mot indice durant un temps très court (quelques millisecondes), avant de présenter un mot cible : l'indice va s'activer et pré-activer les mots avec lesquels il est relié en mémoire, facilitant leur reconnaissance. Or, le mot cible est reconnu beaucoup plus rapidement avec un indice qui est un voisin phonologique, et les mesures des temps de réaction sont assez intéressantes.

Or, cet effet n'a lieu que pour les mots relativement rares : les mots fréquents ne sont pas vraiment reconnus plus vite quand on présente un voisin phonologique. C'est donc la preuve que la lecture des bons lecteurs se base sur un processus majoritairement visuel.

De plus, les sujets qui ont de faibles résultats aux épreuves de reconnaissance de mots écrits ont plus souvent tendance à avoir un effet d’amorçage prononcé avec des voisins phonologiques : les moins bons lecteurs déchiffrent les mots avec des processus phonologiques, ce que ne font pas les bons lecteurs.

De plus, l'étude de patients cérébrolésés semble indiquer que la prononciation n'a pas l'effet qu'on peut lui prêter. Dans l'étude "Are reading and spelling phonologically mediated? Evidence from a patient with a speech production impairment", de Hanley, J.R., & McDonnell, V.(1997), il est fait état d'un patient qui ne peut en aucun cas prononcer les mots, même mentalement, mais qui peut parfaitement lire et comprendre les textes qui lui sont donnés. Techniquement, ce patient ne semble même pas avoir la moindre représentation auditive des mots : il ne sait pas reconnaître des mots présentés à l'oral ou gérer correctement les homophones.

Dual Cascade Route Model

La version la plus récente du modèle postule que les deux voies s'activent en parallèle lors de la lecture d'un mot, et c'est la plus rapide ou la plus adaptée qui l'emporte. Il est stipulé dans le modèle que la voie d'adressage va plus vite que la voie d'assemblage. Cela expliquerait pourquoi les mots fréquents sont reconnus plus rapidement ou pourquoi les vrais mots sont lus plus rapidement : les mots fréquents et vrais mots sont reconnus par la voie d'adressage, qui est plus rapide.

Cependant, on peut se demander si l'accès à la phonologie a lieu avant ou après l'identification visuelle des mots : est-ce que la voie d'adressage est vraiment plus rapide ? Et d'un point de vue expérimental, cette supposition est assez bien vérifiée : l'accès à la phonologie d'un mot a clairement lieu après l'identification visuelle pour les mots fréquents, et même après l'accès au sens des mots.

Dans leur étude de 1995, Daneman, Reingold, et Davidson, ont donné à des sujets des phrases dans lesquelles certains mots étaient remplacés par des homophones. Si la lecture procédait comme ceci : mot écrit -> prononciation -> sens, alors le sens des homophones serait immédiatement disponible à partir de la traduction auditive du mot, sans influence de l'orthographe. Par contre, s'il existe bien deux voies, avec une voie visuelle plus rapide que l'auditive, les homophones seraient plus longs à lire : il faudrait attendre que la voie auditive fasse son travail avant de pouvoir accéder à la bonne signification, qui permet de comprendre la phrase.

Cette étude a montré que des sujets avaient des temps de lecture plus longs pour les homophones mal orthographiés que pour ceux correctement orthographiés : on lit plus vite quand le mot correct est utilisé que quand celui-ci est remplacé par un homophone. Cela suggère que le sens des mots est accédé avant leur prononciation. La voie d'adressage est donc bien plus rapide que la voie d'assemblage.

Existence des correspondances graphème-phonème

Dans ce modèle, on pourrait penser que la conversion des lettres en phonèmes peut poser problème dans le cas où la lettre correspond à plusieurs phonèmes. Le modèle résout cette contradiction en postulant que chaque lettre est associée au phonème correspondant le plus fréquent. La conséquence, c'est que plus un mot est régulier, plus il est rapide à lire, et cet effet est validé par de nombreuses expériences.

Mais les correspondances graphème-phonème ne sont pas les seules : il arrive que des groupes de lettres aient la même prononciation, prononciation qui correspond à une unité sonore plus grande qu'un phonème. On peut citer le cas des syllabes écrites, des morphèmes, ou d'autres formes de relation entre sons et groupes de lettres.

Ces relations entre groupes de lettres et sons sont comme les phonèmes, irrégulières : il arrive qu'un groupe de lettre se prononce différemment suivant le mot. Plus un mot contient des groupes de lettres problématiques dans ce genre, plus il est inconsistant. Réciproquement, les mots consistants sont composés de groupes de lettres à prononciation fixe quel que soit le mot.

Le modèle de la double voie dit que la consistance des mots ne devrait jouer aucun impact :

  • soit ces groupes de lettres sont traités d'un seul coup par la voie d'assemblage qui ne gère pas la prononciation ;
  • soit ces groupes sont traités lettre par lettre dans la voie d'assemblage.

Mais de nombreuses expériences montrent justement le contraire : si la régularité des mots a bien un effet, la consistance des mots a un fort effet qui n'est pas prédit par le modèle de la double voie. En effet, plus un mot est consistant, plus son temps de lecture est faible. En somme, il y a de bonnes chances que la voie d'assemblage n'utilise pas la conversion lettre-phonème spécifiée dans le modèle, voire pas de conversion lettre-phonème du tout !

Modèle connexionnistes

De nos jours, les modèles les plus aboutis sont des modèles basés sur des réseaux de neurones. Ceux-ci sont assez difficiles à comprendre, mais ceux qui sont intéressés peuvent regarder ce document : Modèles connexionnistes. On peut cependant donner quelques conséquences de ces modèles, qui semblent valider les observations antérieures.

Au début de l'apprentissage, ces réseaux de neurones lisent en passant par la phonologie : ils attribuent des groupes de lettres à des unités du langage et lisent les mots en combinant ces unités orales. Puis, au fil du temps, les liaisons directes entre groupes de lettres et unités de sens sont utilisées pour reconnaître les mots. Chez le bon lecteur, qui a des années d'expérience, les deux processus fonctionnent : reconnaissance visuelle de groupes de lettres, et traduction phonologique.

Paramètres qui influencent l'apprentissage de la lecture

Il existe divers paramètres qui font que la reconnaissance d'un mot ou son apprentissage est plus ou moins facile. Nous allons commencer par voir quels sont ces paramètres, avant de voir les modèles qui permettent d'expliquer pourquoi ces paramètres ont une influence.

Transparence linguistique

Il existe des langues transparentes, où il n'existe qu'une seule lettre par phonème, et réciproquement : c'est le cas du serbe et du croate, par exemple. Mais manque de chance, ce n'est pas le cas du français ou de l'anglais. En français, il existe 44 phonèmes pour 26 lettres : cela s'explique par le fait qu'une lettre peut correspondre à plusieurs phonèmes, suivant le mot ou la syllabe, et réciproquement.

Par exemple, la lettre "g" ne se prononce pas de la même manière dans "jauge" et dans "gueule" : dans le premier cas, elle se prononce plutôt à un "j", alors qu'elle se prononce comme un "g" dans le second. De même, on pourrait citer les lettres muettes, et autres situations du même genre.

Le fait qu'une lettre puisse correspondre à plusieurs phonèmes pose problème pour la lecture. Le cas inverse, à savoir la transcription d'un phonème en lettre/groupe de lettre, n'influence pas la lecture, mais joue un grand rôle pour l'écriture.

En effet, le non-respect du principe alphabétique fait que l'on ne peut pas déduire facilement la prononciation d'un mot à partir de ses lettres dans une langue non-transparente, ce qui rend l'apprentissage de la lecture plus laborieux.

L'apprentissage de la lecture est plus long pour les pays qui utilisent une langue inconsistante, comparé aux pays à langue transparente. De plus, il faut savoir que les locuteurs des langues transparentes sont moins concernés par la dyslexie : elle existe bien dans ces pays, et dans des proportions similaires à ce qu'on trouve en France, mais les dyslexiques de ces pays ont nettement moins de mal à lire et sont nettement moins handicapés que les petits Français ou Anglais.

Conscience phonologique

Les études sur le sujet sont très claires : il existe une bonne corrélation entre la capacité à reconnaitre des mots isolés, et la capacité à analyser les différentes unités du langage. Les études en question ont été relativement bien résumées dans une synthèse du National Reading Panel, publié dans les années 2000. Cette capacité à segmenter les mots prononcés en unités plus petites, que l'on peut manipuler, s'appelle la conscience phonologique.

La connaissance de chaque unité du langage a une grande importance pour la lecture. Certaines études semblent montrer que la conscience phonologique mesurée avant l'apprentissage de la lecture est positivement corrélée à l'apprentissage de la lecture, ce qui semble indiquer une relation causale de la conscience phonologique.

Mais les différentes consciences n'ont pas la même utilité dans l'apprentissage de la lecture. Au début de l'apprentissage, toutes les consciences phonologique semblent corrélées à de bonnes capacités de lecture. Par contre, au-delà de la seconde année de primaire, la conscience phonémique joue un rôle plus important que les autres.

Cela s'expliquerait par le fait que ces différentes consciences n'apparaissent pas au même moment chez l'enfant. Le développement de la conscience phonologique commence tout d'abord par la détection des mots, puis est suivi d'un développement de la conscience syllabique, suivi lui-même par la conscience des rimes et syllabes, puis enfin par la conscience phonémique.

Fait intéressant, les illettrés n'ont généralement pas de conscience phonémique, alors que leur conscience syllabique est presque identique à celle de personnes qui ont appris à lire. Par contre, les études ont clairement montré que le développement de la conscience phonémique était particulièrement bine corrélé à la capacité à reconnaitre des mots : plus l’illettré apprendre à lire, plus sa conscience phonologique se développe. Reste à savoir si c'est le développement de la conscience phonémique qui aide à l'amélioration de la capacité à reconnaitre des mots, ou l'inverse.

Le fait qu'entrainer la conscience phonémique semble améliorer les performances de reconnaissance des mots semble attester d'un rôle causal de la conscience phonémique (Ehri, 2001). Par contre, il existe de nombreux cas d'enfants qui ont une très faible conscience phonémique, mais qui savent parfaitement bien lire (Bradley & Bryant, 1985; Stuart-Hamilton, 1986), sans compter que le même phénomène est observé chez des adultes (Campbell & Butterworth, 1985).

Mémoire de travail

Au début de l’apprentissage de la lecture, la mémoire de travail est fortement mise à contribution. Il faut dire que la mémoire de travail verbale est utilisée pour mettre en attente les phonèmes/rimes/syllabes lus et les conserver pour les fusionner en unités plus grandes, ce qui très utile pour déchiffrer les mots.

Il faut savoir que la capacité à répéter des pseudo-mots est fortement corrélée à l'acquisition ultérieure du vocabulaire : un élève qui sait répéter des pseudo-mot a plus de chances d'obtenir un vocabulaire riche et d'apprendre facilement de nouveaux mots. Et cet état de fait s'explique par la taille de la mémoire de travail verbale : plus celle-ci est grosse, plus l'élève pourra facilement répéter de nouveaux mots.

On peut citer le cas d'une patiente, étudiée par Baddeley, dont la mémoire de travail phonologique/articulatoire est atteinte à la suite d'un accident vasculaire cérébral. La patiente n'avait aucun problème pour lire des mots familiers ou qui ressemblaient à des mots connus, mais l'apprentissage de nouveaux mots d'une autre langue était laborieux, quand il était seulement possible.

On voit donc que l'apprentissage de nouveaux mots et donc l'acquisition du vocabulaire dépend de la mémoire de travail auditive, du moins dans les premières étapes de l'apprentissage de la lecture. Mais par la suite, cette influence diminue, l'élève apprenant de nouveaux mots en les reliant à des mots déjà présents en mémoire à long terme, par analogie.

Acquisition de la reconnaissance des mots

La reconnaissance des mots écrits est un processus qui se met en place progressivement. Selon le docteur Linnea Ehri, l'apprentissage de la lecture s'effectue en trois grandes phases.

Étape logographique

La toute première étape de l'apprentissage de la lecture a lieu avant même la scolarisation en primaire et l'apprentissage explicite de la lecture. Lors de cette étape, les enfants peuvent reconnaître des mots, qu'ils interprètent comme des dessins : ils peuvent ainsi reconnaître des mots vus régulièrement, comme Carrefour ou Auchan. On parle d'étape logographique.

Cette reconnaissance ne se fait pas dans le détail des lettres : à la place, les enfants analysent l'image en se basant sur la forme générale du mot, sa couleur, la couleur des lettres, et divers indices visuels. Sans ces indices visuels, les enfants ne peuvent pas reconnaître le mot : il n'y a aucune intervention du langage oral dans la reconnaissance des mots.

Étape alphabétique

Lors de la seconde étape, les enfants prennent conscience de l'existence de lettres, et se basent sur le langage oral pour reconnaître des mots : ils font le lien entre lettres et phonèmes. Ces correspondances entre lettres et sons sont utilisées lors de la lecture : l'enfant va alors traduire les lettres en sons, et reconstruira le mot sous forme auditive : c'est là que le mot "entendu" sera reconnu.

Au tout début de l'apprentissage, les enfants se basent non sur une prononciation complète des mots, mais se contentent d'une traduction partielle : ils traduisent certaines zones du mot, qui leur servent d'indices pour identifier le mot complet. Par exemple, les enfants peuvent traduire les lettres du début et de fin de mot, et en déduisent quel est le mot. Ce processus est utile, mais pas efficace : les enfants commencent à savoir lire, mais le font lentement, et ont du mal à reconnaître un grand nombre de mots.

Par la suite, les enfants lisent lettre par lettre, et fusionnent les sons individuels pour former de mots complets. Cette capacité à fusionner les sons progresse et devient de plus en plus rapide avec le temps, sans pour autant devenir automatique : l'enfant doit faire les conversions lettres -> sons consciemment.

Étape orthographique

Puis, progressivement, les enfants font de moins en moins appel à un déchiffrage des lettres et commencent à reconnaître visuellement des portions de mots. Au lieu de traiter les mots lettre par lettre, ils sont capables de reconnaître des groupes de plusieurs lettres, qui correspondent à des syllabes. La lecture est alors de plus en plus rapide, et devient de plus en plus automatique.

L'enfant qui a atteint ce stade a mémorisé l'orthographe des mots, qu'il peut alors reconnaître plus ou moins indirectement. L'enfant peut aussi utiliser ces connaissances orthographiques pour effectuer des analogies entre mots, et en déduire la prononciation de mots nouveaux en se basant sur des mots connus similaires. Cependant, les correspondances entre sons et suites de lettres sont encore utilisées dans certains cas particuliers, notamment pour les mots inconnus.

Les méthodes de lecture

Apprendre à lire consiste à construire une nouvelle voie d'accès à la mémoire sémantique, soit en se basant sur le langage oral comme base, soit en recommençant le travail de zéro. Et c'est là que les choses se gâtent : la querelle des méthodes de lecture fait que la désinformation, les amalgames et les erreurs factuelles sont monnaie courante quand on parle des méthodes de lecture.

Les méthodes caricaturées par leurs adversaires sont nombreuses, surtout quand on aborde le sujet de la méthode globale ou semi-globale, qui sont souvent confondues avec les méthodes idéo-visuelles. Pour éviter ce genre de confusions, j'utiliserais dans un premier temps les termes techniques, comme méthode analytique, alphabétique, et autres. Je tiens aussi à signaler que je me limiterais aux méthodes appliquées en France, et n'aborderais pas les méthodes spécifiques aux pays anglo-saxons (Whole language, embedded phonics, etc).

Méthode idéo-visuelle

La méthode idéo-visuelle a été inventée par Foucambert, et démocratisée en France par Eveline Charmeux. Le principe de cette méthode est simple : l'enfant n'a pas besoin du langage oral pour apprendre à écrire. A la place, celui-ci doit simplement mémoriser la forme des mots, sans même les découper en lettres. Selon cette méthode, les mots sont perçus en entier, et toute tentative de décomposer les mots en groupes de lettres, voire même en lettre, est inutile et vouée à l'échec : il n'y a pas de déchiffrage…

Voilà une méthode qui est clairement incompatible avec tout ce que nous avons vu précédemment. Mais on peut encore enfoncer le clou un peu plus profondément en ajoutant le fait que l’œil humain ne peut pas lire des mots entiers. En effet, notre œil dispose de deux champs de vision :

  • un champ de vision précis, situé au centre de notre champ de vision ;
  • une vision périphérique, située sur les cotés.

Or, la taille du champ de vision précis est très faible. Plus précisément, les cellules de la rétine qui permettent une vision précise (les cônes) sont regroupées dans une petite zone située au centre de l’œil : la fovéa. Tout le reste de l’œil ne permet qu'une vision floue et grossière, qui ne permet pas d'identifier des lettres.

Simulation de la vision d'une ligne de texte

Les expériences montrent que l'on ne peut identifier qu'un maximum de 8 lettres à la fois, dans certaines conditions expérimentales. C'est suffisant pour reconnaître des mots composés d'une ou de deux syllabes, mais la majorité des mots ne peut pas être reconnue directement en utilisant la vision : on est obligé de les percevoir en plusieurs morceaux, en groupes de lettres.

Mais qu'on se rassure : cette méthode est aujourd'hui totalement abandonnée, et n'a pas vraiment été utilisée dans les classes. Cependant, certains groupuscules et défenseurs des méthodes dites syllabiques, cherchent à faire croire le contraire : ils amalgament les méthodes dites globales avec cette méthode idéo-visuelle. Si les méthodes globales sont encore utilisées à l'heure actuelle, elles ne correspondent en rien à la méthode idéo-visuelle. Et nombreux sont ceux qui se font avoir : par exemple, les arguments et études de Stanislas Dehaenne, scientifique souvent interviewé dans la presse sur le sujet, ne permettent pas du tout de réfuter la méthode globale ou de montrer son inefficacité et ne font que réfuter la méthode idéo-visuelle.

Méthode syllabique pure

Un second type de méthode consiste à faire apprendre l'écriture des syllabes aux enfants et à associer des groupes de lettres à des syllabes, sans apprentissage du principe alphabétique. Cela peut passer par l'usage d'analogies orthographiques par le professeur, par des dictées de syllabes, etc.

Contrairement à ce que l'on pourrait croire, cette méthode n'a rien à voir avec les méthodes syllabiques mentionnées dans les médias ou dans les débats sur l'apprentissage de la lecture : dans les médias ou dans les discours actuels sur l'éducation, méthode syllabique signifie méthode phonémique synthétique. Encore un abus de langage. En réalité, peu de méthodes syllabiques pures existent à l'heure actuelle (l'auteur n'en connaît aucune…), et aucune n'est utilisée dans les salles de classe.

Méthodes phonémiques

Diverses recherches sur l'apprentissage de la lecture ont clairement montré que l'apprentissage du principe alphabétique aidait fortement les enfants à réussir, encore que l'on ne sait pas très bien si ce principe est réellement nécessaire : après tout, on de nombreux cas d'enfants ou d'adultes qui ne connaissent pas les correspondances lettre-phonème, mais qui savent parfaitement lire. Il se pourrait parfaitement que l'unité de base de l'apprentissage de la lecture ne soit pas le phonème, mais la syllabe.

En tout cas, contrairement à ce que certains traditionalistes défenseurs des méthodes synthétiques cherchent à faire croire, la quasi-totalité des professeurs utilise des méthodes basées sur le principe alphabétique. L’enquête réalisée par Fijalkow en 2003 montre que 99% des professeurs considèrent que les correspondances entre lettre et son sont importantes, voire très importantes pour l'apprentissage de la lecture, et que le matériel affiché en classe dépend à 87 de l'apprentissage des phonèmes. Comme quoi, ce genre d'observation suffit à réduire à néant une bonne partie des discours présents dans les médias.

Reste qu'il existe deux grandes méthodes basées sur le principe alphabétique :

  • les méthodes synthétiques ;
  • et les méthodes analytiques.

Pour le moment, aucune recherche ne permet de dire laquelle est la plus efficace.

Méthodes synthétiques

Les méthodes synthétiques partent du principe alphabétique. A partir de ces phonèmes, l'enfant acquiert progressivement des correspondances entre lettre et phonèmes. Le début de l'enseignement se base donc sur le principe alphabétique, qui est abordé en premier lieu, sans préparation préalable. Par la suite, les enfants apprennent à fusionner les phonèmes en syllabes. Et enfin, ils apprennent à fusionner les syllabes orales en mots.

Cette méthode part donc de l’élément le plus petit : la lettre et le phonème, pour ensuite assembler ces éléments en unités plus grandes. Cependant, si le principe alphabétique est vu en premier lieu, les correspondances entre syllabes écrites et syllabes orales, voire entre morphèmes écrits et morphèmes oraux ne sont pas vues explicitement dans toutes les méthodes : tout dépend de l'enseignant et des détails de la méthode. Ainsi, l'automatisation par formation de chunks de haut niveau n'est pas guidée par l'enseignant et n'a lieu que par simple répétition. Et c'est clairement un gros défaut.

De plus, cette méthode suppose que les enfants peuvent identifier les phonèmes en entrant à l'école primaire. A défaut, quelques entraînements de conscience phonémique sont utilisés en complément, mais ce n'est pas généralisé. Or, ce n'est pas le cas : les études montrent clairement que les illettrés n'ont aucune conscience phonémique. Les bases nécessaires pour utiliser les méthodes synthétiques ne sont donc pas connues des enfants qui entrent en primaire.

Après, on peut se dire qu'il suffit d'ajouter un entraînement à la conscience phonologique avant de passer aux méthodes synthétiques. Cela a une certaine efficacité selon les expériences faites sur le sujet. Malgré tout, environ 20% des enfants ne maîtriserons pas les correspondances entre certaines consonnes et les phonèmes associés (selon les études de la DEPP).

Méthodes analytiques

Les méthodes analytiques fonctionnent sur le principe inverse : au lieu de partir du phonème, pour arriver à la syllabe, et enfin au phonème, les méthodes analytiques font exactement l'inverse.

La première étape de ces méthodes consiste à faire mémoriser des mots par cœur aux élèves. Par la suite, le professeur pousse l'élève à remarquer des ressemblances entre les mots, aussi bien à l'oral qu'à l'écrit, via des analogies orthographiques, ou via une analyse des mots. Le but est de faire en sorte que l'élève découpe les mots appris par cœur en syllabes écrites et orales, afin de maîtriser les correspondances syllabe orale et syllabe écrite. La même chose est effectuée sur les syllabes extraites, afin de dégager les phonèmes.

Certaines méthodes font à la fois de l'analytique et du synthétique. On peut citer le cas de la méthode Schüler. Généralement, ces méthodes commencent par un départ analytique en début de séance/séquence, et terminent par une phase synthétique. L'inverse est aussi possible, même si les méthodes de lecture de ce genre semblent un peu plus rares.

Cette méthode n'est autre que la méthode globale réelle, mais elle est souvent appelée méthode semi-globale ou mixte, pour la différencier de la fausse méthode globale, idéo-visuelle. Elle est souvent caricaturée et amalgamée avec la méthode idéo-visuelle : il faut dire que les deux commencent par faire apprendre par cœur des mots. Mais avec la méthode globale, ces mots appris sont décomposés en syllabes écrites et en lettres, afin de dégager les correspondances syllabes écrite -> syllabe orale et lettre -> phonèmes.

Cette méthode requiert aussi un apprentissage de la conscience phonologique, comme pour la méthode synthétique. Il faut dire que contrairement aux caricatures qui en sont faites, les méthodes globales apprennent explicitement le principe alphabétique. L'entraînement à la conscience phonologique est donc aussi recommandé avec les méthodes globales.

On peut remarquer qu'avec cette méthode, l'apprentissage des syllabes écrites est explicite, ce qui est un avantage certain sur certaines méthodes synthétiques, pour lesquelles il n'y a pas forcément cet apprentissage.

Méthodes hybrides

Les méthodes analytiques ou synthétiques (ou celles qui sont les deux à la fois) séparent généralement la lecture de l'écriture : les deux sont vus séparément, le lien entre les deux étant toutefois explicité par le professeur. Mais d'autres méthodes, dites de lecture-écriture, tentent de combiner apprentissage de la lecture et de l'écriture.

Certains pédagogues pensent que l'apprentissage des correspondances lettres-sons doit passer par l'usage de l'écrit, et ont inventé une méthode basée sur ce principe. La description de cette méthode est disponible dans cet article, publié sur le café pédagogique : Démocratiser l’enseignement de la lecture-écriture : 2- De la graphophonologie à la charnière GS-CP ).


6 commentaires

Merci Mewtow. Par-contre, une méthode se basant sur le principe alphabétique est dites phonémiques ?

PS: Il manque un '%' dans le premier paragraphe de méthodes phonémiques, 'Ctrl+F' sur '87'

ache.one                                                                                   🦊

+0 -0

Par-contre, une méthode se basant sur le principe alphabétique est dites phonémique ?

ache

Oui. Par contre, il ne faut pas confondre méthode qui se basent sur le principe alphabétique, et les méthodes appelées alphabétiques (mal-nommées), qui sont une sous-classe des méthodes synthétiques.

Édité

+2 -0

Même chose dans un mot comme "grammaire" : les deux phonèmes liés à la lettre "m" sont fusionnés pour donner un seul et unique "m", dont le temps de prononciation est allongé.

Tu devrais prendre un autre exemple. :)

À la base, « grammaire » se prononçait comme « grand-mère » (et c’est encore le cas d’un certain nombre de locuteurs dans une vaste zone autour de Toulouse), puis un phénomène généralisé de dénasalisation au XVe siècle a fait évoluer la prononciation en /gramère/, et la prononciation géminée est une hypercorrection plus tardive due à la forme écrite.

Le futur « courra » serait moins équivoque.

#JeSuisGrimur #OnVautMieuxQueÇa

+0 -0
Vous devez être connecté pour pouvoir poster un message.
Connexion

Pas encore inscrit ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte