vendredi 11 mai 2018

Apprentissage de la lecture : le point sur les savoirs et les pratiques

Contrairement aux affirmations du ministre de l’éducation nationale, il n’existe pas de méthode validée par la science pour apprendre à lire aux élèves de cours préparatoire. Entretien croisé avec les experts Laurent Cros et Roland Goigoux.

LE MONDE IDEES  | Propos recueillis par 

Le 26 avril, Jean-Michel Blanquer a fait une série d’annonces en faveur de la « méthode syllabique ». Auparavant, dans l’attente d’une prise de position du ministre de l’éducation nationale, Le Monde avait convié deux experts à faire le point sur l’état des savoirs et des pratiques en matière d’apprentissage de lecture.

Dans les controverses récurrentes à ce sujet, l’un et l’autre appartiennent à des courants de pensée très différents. Laurent Cros est le délégué général d’Agir pour l’école. Créée en 2010, cette association met en œuvre depuis huit ans un programme sur la lecture dans des écoles en éducation prioritaire. Son action a fait l’objet de plusieurs articles scientifiques dans des revues de psychologie cognitive et d’économie de l’éducation. Roland Goigoux, professeur à l’université de Clermont-Auvergne, spécialiste de l’enseignement de la lecture et de l’écriture, a dirigé l’étude « Lire et écrire au CP »,issue de l’observation de 131 classes par soixante chercheurs, dont les résultats ont été publiés à partir de septembre 2015.

Comment percevez-vous l’approche de l’enseignement de la lecture du ministère Blanquer ?

Roland Goigoux. On constate certaines contradictions dans la position du ministère. D’un côté, la mise en place d’un conseil scientifique de l’éducation porte l’idée que l’on va faire le point rationnellement sur l’état des savoirs. Mais de l’autre côté, des membres de l’entourage direct du ministre déclarent, dans des réunions de cadres de l’éducation nationale, que demain nous aurons au CP une méthode unique de référence pour l’apprentissage de la lecture. Certains citent même comme modèle à suivre un manuel fondé sur une méthode syllabique stricte, dont aucune donnée ne prouve la supériorité.

Qui croire ? Ces propos préoccupants, ou bien ce qu’affirmait mot pour mot en 2011 le livre Apprendre à lire [Odile Jacob], dirigé par l’actuel président du conseil scientifique, Stanislas Dehaene : « La connaissance du cerveau ne permet pas de prescrire une méthode unique, nous avons des données sur les neurones mais en aucun cas on ne peut en déduire une méthode optimale, diverses stratégies demeurent compatibles avec nos connaissances sur le cerveau. » Lorsqu’on lui demande si des propositions précises ont été validées par la science, Stanislas Dehaene ne parle que d’hypothèses de travail que seule l’expérimentation pourrait valider.

C’est d’ailleurs dans ce souci d’obtenir une mesure objective qu’il avait confié au professeur Edouard Gentaz, de l’université de Genève, l’évaluation dans plusieurs dizaines de CP lyonnais du dispositif « Parler », qu’il soutient. Et il reconnaît que ce dispositif n’a pas apporté les résultats escomptés, l’évaluation ayant montré l’absence de supériorité du groupe entraîné par rapport au groupe témoin.

« Le ministère exprime une attention particulière, sinon exclusive, envers le maillon du cours préparatoire. Or, sur le plan scientifique, tout le monde s’accorde sur l’idée que l’acquisition des compétences en littératie est une mission de l’ensemble de l’école primaire »

Par ailleurs, le ministère exprime une attention particulière, sinon exclusive, envers le maillon du cours préparatoire. Or, sur le plan scientifique, tout le monde s’accorde sur l’idée que l’acquisition des compétences en littératie, c’est-à-dire dans les usages de l’écrit, est une mission de l’ensemble de l’école primaire. La polarisation sur le seul CP revient à laisser entendre que, si la mise en place du déchiffrage se passe bien, on aura forcément de bons résultats. Pourtant, depuis 2002, année à partir de laquelle la priorité a été systématiquement donnée à la maîtrise du « code » – avec un investissement de plus en plus lourd que nous avons pu vérifier dans notre enquête « Lire et écrire au CP » –, le moins qu’on puisse dire est que cela ne s’est pas traduit par une augmentation des performances en lecture-compréhension. En attestent les derniers résultats de l’enquête internationale PIRLS, qui porte sur la compréhension de l’écrit par les élèves de CM1. Autant les compétences de décodage sont nécessaires, autant on sait qu’elles ne sont pas suffisantes. « Ils déchiffrent bien mais comprennent mal », nous disent les profs de collège.

Laurent Cros. Pour ma part, je mettrais d’abord en avant le fait que la première mesure significative du ministre a été de dédoubler les classes de CP dans les REP + [réseaux d’éducation prioritaire renforcée] avant de le faire bientôt dans les REP. Ce n’est pas neutre dans l’apprentissage de la lecture puisque cela détermine de meilleures conditions d’enseignement. Aucune réforme, ces vingt dernières années, n’a été aussi ambitieuse en termes de moyens. On peut même dire qu’aucun pays développé n’a pris de mesure aussi forte sur le début de l’école primaire. C’est un signal, d’autant qu’on a longtemps entendu parler de priorité au primaire sans voir sa traduction par des moyens supplémentaires.

Ensuite, je partage l’analyse de Roland Goigoux sur le fait que la lecture, ce n’est pas simplement apprendre le code au CP. Même si l’on y réussit, c’est insuffisant pour être armé à l’entrée au collège. Il faut bien sûr travailler toutes les compétences nécessaires à la lecture : la fluence ou vitesse de lecture – qui est l’aboutissement du code –, la compréhension et le vocabulaire. Ce sont ces trois compétences réunies qui permettent un bon niveau de compréhension des textes. On pourrait même y ajouter la connaissance du monde puisqu’il faut, pour décrypter des textes, pouvoir les relier à des choses connues.

« L’étude “Lire et écrire au CP” montre que la vitesse de lecture des 20 % les plus faibles de l’échantillon est à peu près égale à la moitié de celle des 20 % les plus forts. Cela signifie qu’ils vont buter sur chaque mot »

Cela dit, on constate à la fin du CP, surtout en éducation prioritaire, un niveau de fluence trop faible. L’étude « Lire et écrire au CP » montre d’ailleurs que la vitesse de lecture des 20 % les plus faibles de l’échantillon est à peu près égale à la moitié de celle des 20 % les plus forts. Cela signifie qu’ils vont buter sur chaque mot. Par la suite, leur retard, d’année en année, ne va pas se rattraper. Une étude de Maryse Bianco et Marc Gurgand sur la fluence en 6e montre qu’on a toujours, dans cette classe, un groupe d’élèves assez important qui ne la maîtrise pas bien. Cela joue sur d’autres dimensions de la lecture car quand on lit moins vite, on lit moins et on apprend moins de vocabulaire, ce qui a des effets sur la compréhension.

Le temps nécessaire pour parvenir, au CP, à un bon niveau en fluence – notre association travaille là-dessus avec le chercheur Bruno Suchaut depuis trois ans – est en moyenne de l’ordre de 35 heures en interaction individuelle entre l’enseignant et l’élève, c’est-à-dire en plus des moments collectifs de classe. Les dédoublements actuels, qui augmentent la disponibilité de l’enseignant pour chaque élève, sont donc un début de réponse mais ce ne sera pas suffisant. En moyenne, les élèves de CP ne sont pas suffisamment entraînés au décodage. L’enquête dirigée par Roland Goigoux a d’ailleurs montré que ce retard se prolonge : à la fin du CE1, environ 20 % des élèves ont un retard en fluence et ne lisent qu’à la vitesse de 50 mots par minute, alors que la moyenne est à 76.

R.G. En moyenne, les élèves français ne sont pas plus faibles que leurs camarades européens. Les Norvégiens, par exemple, sont à 72 mots par minute… Ce n’est donc pas la fluence qui explique nos mauvais résultats dans l’enquête PIRLS. Les élèves les plus faibles ont besoin d’un investissement plus fort et plus précoce sur le décodage, c’est là un point d’accord entre nous.

En revanche, je ne vous suis pas lorsque vous dites que les maîtres ne font pas cela suffisamment. Notre enquête montre que c’est vrai seulement pour une partie d’entre eux. Il faut donc les alerter à ce sujet, mieux les outiller et les former. Mais on commettrait une grave erreur si, au lieu de s’intéresser à ceux qui auraient besoin d’aide et de conseils, on prenait la profession frontalement en lui disant : maintenant, je ne veux voir qu’une tête et ce sera le manuel unique.

Le ministre a jugé inacceptable que certaines classes de CP n’aient pas de manuel. Autant je suis d’accord lorsqu’il s’agit d’enseignants débutants, autant cela me paraît choquant pour des maîtres expérimentés. Dans notre enquête, parmi les enseignants les plus efficaces de l’échantillon, un tiers n’utilisent pas de manuel. Cela ne veut pas dire qu’ils n’en ont jamais eu mais que leur maîtrise est telle qu’ils peuvent à présent s’en passer et réaliser chaque année leur combinaison personnelle. Le danger serait donc de laminer la profession en standardisant une procédure qui serait imposée à des gens très compétents. Dans l’état de la recherche aujourd’hui, rien ne permet de dire qu’une méthode syllabique stricte serait supérieure aux autres.

L. Cr. Personnellement, je n’ai pas perçu cette intention ni entendu de tels propos, auxquels je ne serais pas favorable. Je pense qu’il faut se servir des connaissances établies, qu’il s’agisse de l’étude très large coordonnée par Roland Goigoux ou des articles scientifiques français et internationaux, mais qu’il n’y a pas de raison d’en conclure que tout le monde doit faire la même chose.

Il y a plusieurs moyens d’atteindre un même objectif. Cela peut s’appliquer, par exemple, au travail sur la fluence, qui est notre priorité dans le cadre de l’association Agir pour l’école. On estime qu’un apprenti lecteur, pour progresser dans l’automatisation de sa lecture, doit rencontrer et lire au moins cinq fois un même mot de manière rapprochée. Mais pour y parvenir, on peut recourir à toutes sortes d’extraits et de modes d’organisation différents. Ce qui compte, c’est que l’approche reste inspirée par les connaissances.

Je rejoins Roland Goigoux sur le fait que certains enseignants ont des besoins de formation et d’accompagnement plus forts que d’autres. Son étude porte sur tous les types d’écoles mais la particularité de notre association est que nous sommes à 100 % sur l’éducation prioritaire. Le niveau moyen des élèves que nous suivons est donc plus faible, et nous avons des besoins en temps plus forts que la moyenne des écoles étudiées. Nous observons aussi l’importance de « l’effet maître », c’est-à-dire que certains enseignants ont d’excellents résultats, alors que d’autres ne possèdent pas les bonnes clés.

Compte tenu de l’état des savoirs actuel sur l’apprentissage de la lecture, peut-on avancer que les chercheurs sont d’accord sur l’essentiel ?

R.G. Il existe aujourd’hui des consensus très forts, sur le plan international, à la fois sur les différentes compétences à travailler pour enseigner la lecture – phonologie, vocabulaire, déchiffrage, syntaxe, etc. –, et sur le fait que certaines compétences, à certains moments, revêtent une importance critique. L’idée qu’un apprentissage réussi dépend d’un enseignement clairement structuré et explicite est largement partagée.

Il n’y a pas consensus, en revanche, mais un débat scientifique intéressant sur les moyens retenus pour exercer ces différentes compétences. Il existe des nuances – on peut toujours les présenter comme des oppositions, mais sur le plan scientifique, ce sont des nuances – sur la temporalité de l’apprentissage. Certains pensent que l’enseignement doit être organisé étape par étape. Leur approche est modulaire : elle consiste à prendre des blocs de compétences – par exemple les connecteurs logiques ou les pronoms – et à les travailler les uns après les autres. D’autres, dont je suis, préfèrent une option qu’on appelle « intégrative » parce qu’elle tend à combiner les différentes dimensions de l’apprentissage dans des activités simultanées plutôt que successives. Par exemple, dans les outils que nous concevons avec Sylvie Cèbe, le vocabulaire et la lecture sont travaillés ensemble et non pas dans deux modules disjoints. Ou encore : une activité d’encodage – où les enfants passent de ce qu’ils entendent à ce qu’ils peuvent écrire –, articulée très étroitement avec le décodage.

Ces deux options induisent des scénarios pédagogiques et didactiques différents sans qu’on n’ait la preuve de la supériorité de l’un sur l’autre. Je pourrais lister les articles qui valorisent certaines approches modulaires et d’autres qui valorisent les approches intégratives. C’est pour cela qu’un conseil scientifique, dans une logique de recommandations, devrait faire état de l’ensemble des avantages et des inconvénients sans être trop normatif. Tout le monde est d’accord pour un enseignement précoce et explicite du code, mais dire aujourd’hui qu’il doit impérativement s’effectuer comme ceci et non comme cela ne tiendrait pas.

L. Cr. Les chercheurs sont effectivement d’accord sur l’essentiel. Les différences restent difficiles à cerner car lorsqu’on évalue une approche particulière en la comparant avec un groupe témoin, on le fait globalement. Or, une approche, c’est beaucoup de choses à la fois : de la formation, des outils, de l’investissement des enseignants, etc. Autant de critères sur lesquels il n’est pas évident d’établir des comparaisons strictes.

« Je trouve dommage que la question du temps à consacrer aux différentes facettes de l’apprentissage ne soit pas plus amplement traitée dans les travaux de psychologie cognitive »

Pour notre part, nous nous appuyons principalement sur des études issues de la psychologie cognitive, notamment celles de Jean Ecalle et Annie Magnan. Elles penchent vers des approches modulaires. Par exemple, sur l’apprentissage de la compréhension, les études qui font référence en France sont celles de Maryse Bianco, et les outils qu’elle préconise sont déclinés par compétences. Nous tendons à « faire de la compréhension » en programmant tant de séances pour tel objectif. Il est certainement possible de procéder autrement, mais c’est notre manière d’avancer, en fonction de ce qui nous paraît établi par les études aussi bien françaises qu’internationales.

Je trouve cependant dommage que la question du temps à consacrer aux différentes facettes de l’apprentissage, qui avait été mise en exergue par le chercheur Bruno Suchaut il y a déjà une quinzaine d’années, ne soit pas plus amplement traitée dans les travaux de psychologie cognitive. Car une bonne approche appliquée sur un temps insuffisant, cela donne un résultat décevant. Cela pourrait d’ailleurs expliquer certains échecs actuels.

« Il faut en finir avec les méthodes globales et semi-globales ». Que pensez-vous de cette formule et de son utilisation dans le débat public ?

L.Cr. Cela renvoie à un débat un peu daté. Le code en lui-même est une compétence parmi d’autres, au milieu de la phonologie, de la fluence, des stratégies de compréhension… De plus, on ne rencontre pas d’enseignants qui se réclameraient d’une approche purement globale. En revanche, on peut parler de méthodes mixtes, puisque celles-ci, en tout cas par rapport aux manuels commercialisés, sont dominantes. En général, ce sont des méthodes qui ont un départ global – on apprend quelques mots ou quelques phrases – avant de travailler le code de façon systématique.

Personnellement, je m’en remets à ce que disent toutes les études aujourd’hui : il faut commencer l’étude du code le plus vite possible et éviter de dérouter certains enfants, notamment les plus faibles, avec des apprentissages de mots par cœur, qui ne servent à rien. Cela dit, un autre débat est sous-jacent : doit-on faire lire aux enfants exclusivement des mots qu’ils peuvent décoder ou bien peut-on introduire aussi dans les textes étudiés une partie non encore décodable ? Soit ce qu’on appelle des mots outils [« dans » , « est », « parce que », « qui », etc.], soit d’autres mots encore. Sur ce point, on peut dire que, tant qu’une grande majorité des mots sont décodables, il n’y a pas d’argument scientifique pour rejeter une telle approche.

En revanche, ce qui me semble très important et dont on parle trop peu, c’est le temps alloué au décodage. Un élève très faible aura besoin de décoder de nombreuses fois chaque nouveau groupe de lettres pour le mémoriser durablement. Le graphème « ou », par exemple, il va devoir le lire au moins 200 fois, dans des compositions de syllabes ou de mots, pour ne pas hésiter dessus un mois plus tard. S’il ne fait que le survoler, il risque de le confondre ensuite avec « oi » ou « on », et de patauger quand la classe va commencer à lire des petits textes.

R.G. Ce vocabulaire – global, semi-global – me semble désuet et plutôt destiné à faire peur. Il est utilisé de manière idéologique car les manuels, aujourd’hui, à de rares exceptions près, respectent le principe que Laurent Cros vient d’évoquer : celui de commencer très tôt, dès les premières pages, un enseignement systématique des correspondances entre les lettres les sons.

Nous n’avons plus les méthodes mixtes à départ global d’autrefois avec une longue période avant de commencer l’étude du code, par exemple après la Toussaint. Le marché éditorial des manuels est extrêmement divers. Une soixantaine de manuels différents sont utilisés dans les classes. Dans notre étude, qui portait sur 131 classes, nous en avions une trentaine. Rien que sur des méthodes syllabiques strictes, il en existe une dizaine. Et les pratiques elles-mêmes sont aussi diverses. Certains enseignants vont dire qu’ils pratiquent une méthode « mixte » simplement parce qu’ils s’autorisent l’usage de quelques mots non déchiffrables. Et il est inapproprié de qualifier de « globale » la mémorisation de certains mots entiers, car ce que les maîtres font mémoriser, ce n’est pas l’image du mot, mais la suite ordonnée des lettres qui le composent et que les enfants savent reconnaître en minuscules et en majuscules.

« Personne ne peut produire aujourd’hui la moindre étude scientifique attestant de la supériorité d’une méthode syllabique radicale, “100 % déchiffrable”. »

Mais cela reste prohibé par les « syllabistes » radicaux qui défendent le 100 % déchiffrable, c’est-à-dire la lecture de mots exclusivement composés de lettres dont la valeur sonore a été préalablement enseignée. A les suivre, on ne pourrait même pas écrire la date au tableau ou les prénoms des enfants sans en avoir étudié au préalable toutes les correspondances entre graphèmes et phonèmes. Cette orthodoxie, qui n’est pas l’option de Stanislas Dehaene, a été défendue ces derniers mois par le responsable de l’instruction publique, Yves Cristofari. Or, il n’existe aucune recherche qui aurait testé sur ce critère l’efficacité comparée de différentes pratiques. Elle serait d’ailleurs difficile à réaliser car, comme Laurent Cros vient de le rappeler, il faudrait, sur un plan expérimental, stabiliser toutes les autres dimensions. En tout cas, personne ne peut produire aujourd’hui la moindre étude scientifique attestant de la supériorité d’une méthode syllabique radicale, « 100 % déchiffrable ».

Aucun commentaire:

Enregistrer un commentaire