Suite à ma conférence « Tout ce que vous avez toujours su sur l’éducation et qui est faux » le 20/10/2018 à TEDx Clermont, plusieurs personnes ont demandé les sources sur lesquelles je m’appuyais. Cette demande est tout à fait légitime. Le format d’un TEDx talk ne se prête pas à une citation scrupuleuse des sources, ce qui rend difficile de se faire un avis sur la crédibilité des affirmations qui y sont faites. Quelqu’un d’autre peut faire un TEDx talk qui dit exactement le contraire du mien, et il sera bien difficile au spectateur de déterminer qui a raison. D’où l’importance, pour quelqu’un comme moi qui essaie de se démarquer des « gourous de l’éducation » qui passent leur temps à affirmer sans preuve, de compléter la conférence par une bibliographie que chacun peut vérifier.

Dans mon talk, je cite le livre « Visible learning » de John Hattie pour illustrer la masse de données disponibles dans la recherche en éducation. Je me suis en partie basé sur son livre (notamment pour estimer le nombre d’études portant sur un sujet donné et le nombre d’élèves concernés), mais je ne le conseille pas aux enseignants. C’est un livre écrit pour les chercheurs, qui fait un effort de synthèse admirable mais qui agrège nécessairement des études très disparates, et par ailleurs il a déjà dix ans.

A l’heure actuelle, je considère que la source générale la plus fiable et la plus à jour sur les recherches en éducation est le Teaching and Learning Toolkit de l’Education Endowment Foundation britannique (EEF). C’est aussi celle qui est sous la forme la plus accessible à un large public, si ce n’est qu’elle est en anglais, et qu’on attend donc impatiemment une traduction en français. Pour les exemples que j’ai choisis dans mon TEDx talk, je me suis appuyé principalement sur le Teaching and Learning Toolkit, auquel j’ai notamment emprunté l’estimation des tailles d’effet (en mois de progrès annuel).

Bien entendu, même si je considère que l’EEF est une source digne de confiance, le seul fait qu’elle affiche tel résultat pour telle pratique pédagogique n’implique pas qu’on doive la croire sur parole. Mais si on ne souhaite pas la croire sur parole, alors l’étape suivante est de lui demander ses sources, et de les vérifier. Bien entendu, l’EEF donne ses sources, à savoir les méta-analyses* sur lesquelles elle s’est appuyée pour faire sa synthèse. Pour y avoir accès, il faut aller au-delà des pages du Teaching and Learning Toolkit, et consulter les appendices techniques, qui donnent la liste des méta-analyses, leurs résumés et leurs résultats. Pour faciliter cela, je donne ci-dessous les liens directs vers les documents de synthèse incluant ces appendices. Évidemment, si on n’est toujours pas convaincu à la lecture de ces appendices, il ne reste plus qu’à aller consulter les articles cités dans les revues scientifiques internationales. En revanche, on ne peut pas contester les conclusions de l’EEF à la va-vite, sans faire l’effort de consulter ces sources et d’y détecter des failles, ou de mettre en évidence d’autres données probantes qui n’auraient pas été prises en compte.

Ci-dessous, j’indique les sources pour les 5 exemples donnés dans mon TEDx talk, en rappellant la synthèse qu’en fait l’EEF, sous le format du Teaching and Learning Toolkit, qui comporte 3 dimensions:

  1. Est-ce que c’est efficace? Il s’agit du nombre le plus à droite. Il indique l’effet de l’intervention, en mois de progrès (par année scolaire) du groupe d’élèves bénéficiant de l’intervention cible, par comparaison à un groupe d’élèves n’en bénéficiant pas. Dans l’exemple donné ci-dessus, les élèves qui apprennent à lire selon une méthode phonique (qui enseigne systématiquement toutes les correspondances graphèmes-phonèmes) atteignent en fin d’année scolaire le niveau de lecture que les élèves apprenant avec une autre méthode atteindront 4 mois plus tard (soit à Noël de l’année scolaire suivante).
  2. Quel est le niveau de preuve? Quel que soit le niveau d’efficacité mesuré, il importe de se poser la question de la confiance que l’on a dans ce résultat. Si la mesure d’efficacité est obtenue sur la base d’une seule étude, ou sur la base d’études de faible effectif ou de faible qualité méthodologique, le résultat n’est pas fiable, et risque d’être remis en cause dès la publication de nouvelles études de meilleure qualité. En revanche, si la mesure d’efficacité est basée sur la méta-analyse de centaines d’études, dont certaines au moins ont de grands effectifs et une bonne qualité méthodologique, alors le résultat est très robuste, dans le sens où il a très peu de risque d’être remis en cause par de nouvelles études. Cette notion de robustesse ou de niveau de preuve est représentée par l’EEF sous la forme de 1 à 5 cadenas, du niveau de preuve le plus faible au plus fort. Dans l’exemple donné ci-dessus, la supériorité des méthodes phoniques sur toutes les autres méthodes d’enseignement de la lecture est jugée avoir un haut niveau de preuve (5 cadenas), car basée sur des méta-analyses de centaines d’études de bonne qualité (dans son livre de 2008, Hattie avait dénombré 14 méta-analyses sur le sujet, compilant les résultats de 425 études basées sur plus de 12000 élèves). [pour en savoir plus sur les méthodes d’enseignement  de la lecture, écouter ma conférence « Lire au CP »]
  3. Quel est le coût? C’est une question qui peut sembler secondaire pour les enseignants, mais qui est importante pour tous les décideurs du monde de l’éducation, qu’ils soient ministres, inspecteurs, chefs d’établissement ou élus. Les moyens alloués à une politique éducative ne sont jamais infinis, et étant donné les moyens que l’on a, on peut avoir envie de les investir dans les politiques qui produisent les meilleurs effets pour le moindre coût. L’EEF représente ce paramètre sous forme de livres sterling (de 1 à 5). Dans l’exemple donné ci-dessus, non seulement les méthodes phoniques sont très efficaces et ont un niveau de preuve élevé, mais elles ont aussi un coût faible (1£). En effet, elles ne nécessitent qu’une formation initiale des enseignants et le choix de manuels ou autres supports pédagogiques appropriés, quand d’autres politiques sont beaucoup plus coûteuses (par exemple, diviser la taille des classes par deux implique d’employer deux fois plus d’enseignants et de disposer de deux fois plus de salles de classes).

Venons-en donc maintenant à mes exemples du TEDx.

Le redoublement

D’après l’EEF, les élèves qui redoublent progressent en moyenne 4 mois de moins par année scolaire que s’ils étaient passés dans la classe supérieure. C’est un résultat assez robuste, et cette politique est de plus très coûteuse (chaque redoublement coûte à la collectivité le coût d’une année de scolarité d’un élève, soit en France environ 6500€ dans le primaire et 10000€ dans le secondaire). Le document de synthèse donne plus de détails et les références de 5 méta-analyses.

C’est l’un des rares sujets sur lesquels il existe des études comparables en France, qui donnent d’ailleurs les mêmes résultats (Afsa, 2011). La meilleure synthèse récente a été produite par la conférence de consensus du CNESCO (2015).

Les classes de niveau

Sur les classes de niveau et les différentes manières de regrouper les élèves, l’EEF a récemment mis à jour sa synthèse de la littérature scientifique et discute les différences entre les approches.

Le résultat sur les classes de niveau est négatif: -1 mois de progrès en moyenne dans les classes de niveau, par rapport aux classes hétérogènes. Il s’agit d’une approche peu coûteuse, et le niveau de preuve reste limité. Comme je le dis dans ma conférence, cet effet moyen légèrement négatif semble être dû à un petit effet positif pour les élèves dans les classes de bon niveau, plus que compensé par un effet négatif pour les élèves dans les classes de faible niveau. Avec pour corollaire le fait d’amplifier les différences entre les élèves placés dans les différentes classes, au détriment des plus faibles.

Le document de synthèse donne plus de détails et rapporte les résultats de 6 méta-analyses, tous négatifs ou nuls.

Les groupes de besoin

Les groupes de besoin sont une bonne alternative aux classes de niveau: les inégalités ne sont pas institutionnalisées, les groupes sont formés de manière flexible, en fonction du niveau et des besoins de chacun dans une matière donnée à un moment donné dans l’année. Ils peuvent être modifiés à tout moment pour mieux s’adapter aux besoins.

D’après l’EEF, les résultats sont positifs: 3 mois de progrès en plus en moyenne, et semblent être plus homogènes, bénéficiant à tous les élèves. Le coût est faible et le niveau de preuve limité.

Le document de synthèse donne plus de détails et rapporte les résultats de 4 méta-analyses, tous positifs.

Les styles d’apprentissage

Il s’agit ici de l’idée selon laquelle différents élèves possèdent différents styles d’apprentissage (visuel, auditif, kinesthésique), et le fait de leur présenter l’information à chacun dans sa modalité préférée rendrait l’apprentissage plus aisé.

On est ici dans un cas de figure où il semble y avoir une légère divergence entre le résultat quantitatif donné par l’EEF (+2 mois de progrès en moyenne) et la synthèse que j’ai en faite dans ma conférence, en décrétant cette approche inefficace. Ceci mérite donc une justification particulière.

Premièrement, si on lit le document de synthèse de l’EEF, on peut observer que la divergence se situe au sein même de ce document, entre le résultat quantitatif et les appréciations qualitatives. En premier lieu, l’EEF indique clairement que la notion de trois styles d’apprentissage correspondant chacun à une modalité sensorielle n’a aucune validité scientifique. Je le confirme: dès que l’on examine en détail les modalités de détermination de ces styles d’apprentissage, on réalise qu’il s’agit de simples préférences auto-déclarées dont la correspondance avec le traitement de l’information n’a jamais été établie, et que la plupart des gens n’ont pas de préférence marquée. Le fait de classer la population entre 3 catégories supposées distinctes est totalement artificiel et infondé.

Deuxièmement, les 4 méta-analyses passées en revue par l’EEF ont des résultats très hétérogènes: 3 affichent des résultats quasi-nuls, alors qu’une 4ème (Lovelace, 2002) affiche des résultats spectaculaires. Il se trouve que cette méta-analyse a été très critiquée pour la qualité de sa méthodologie. L’EEF aurait pu choisir de l’exclure pour ces raisons méthodologiques, mais elle a fait un choix différent qui peut se défendre également: celui de conserver toutes les méta-analyses et de livrer les résultats quantitatifs tels quels sans altération qui pourrait être prise pour une manipulation, tout en les accompagnant d’un commentaire qui ne laisse aucun doute sur le crédit que l’on peut accorder à cette approche.

Enfin, on peut encore souligner que quasiment aucune des études incluses dans ces méta-analyses ne testent véritablement l’hypothèse cruciale des styles d’apprentissage, à savoir que les élèves apprennent mieux lorsqu’on leur présente l’information dans leur modalité préférée que lorsqu’on leur présente dans une modalité alternative. Par conséquent, elles ont un contrôle insuffisant sur l’effet placebo. Pour une discussion plus complète, on se reportera à l’article de Pashler et al. (2009) qui fait référence sur le sujet.

Il existe plusieurs comptes-rendus des limites de cette approche en français. La Main à la Pâte la classe parmi les « neuromythes ». Le sujet est également traité dans le tout nouveau livre Les neurosciences en éducation, par Sander, Gros, Gvozdic & Scheibling-Sève.

Les comportements perturbateurs

Il s’agit d’un sujet de la plus grande importance, sur lequel il existe de nombreux travaux scientifiques, portant sur des pratiques qui ont largement fait la preuve de leur efficacité. Et pourtant, la formation à ces pratiques des enseignants français (et des enseignants spécialisés et psychologues scolaires, qui devraient en être les experts) est pour ainsi dire totalement inexistante. Les pratiques en question sont regroupées sous le terme d’interventions comportementales, car elles ont en commun de cibler très directement des modifications du comportement des élèves. Elles ont aussi très souvent en commun le fait de mettre l’accent sur le renforcement des comportements positifs, plutôt que sur la punition des comportements indésirables; il s’agit en effet d’un élément-clé de leur efficacité. Il existe de nombreux programmes différents mettant en œuvre de telles approches, qui peuvent se décliner au niveau des individus, des classes ou des écoles.

La synthèse de l’EEF met en évidence un effet positif clair de ces interventions: au-delà de l’effet direct sur les comportements eux-mêmes, elles ont un effet positif indirect sur le niveau scolaire, avec +3 mois de progrès en moyenne. L’efficacité est particulièrement importante pour les interventions ciblées sur les élèves avec troubles du comportement. Le niveau de preuve est important et le coût est moyen (pour les interventions les plus qualifiées et intensives).

En ce qui me concerne, les sources sur lesquelles je me suis appuyé sont les trois ouvrages ci-dessous:

  • Alberto, P., & Troutman, A. C. (2009). Applied behavior analysis for teachers. Upper Saddler River, NJ: Pearson Education.
  • Kazdin, A. (2012). Behavior Modification in Applied Settings (Seventh). Long Grove, Illinois: Waveland Press.
  • Kazdin, A. E., & Rotella, C. (2013). The Everyday Parenting Toolkit: The Kazdin Method for Easy, Step-by-Step, Lasting Change for You and Your Child. Houghton Mifflin Harcourt.

Malheureusement, aucun de ces livres n’a été traduit en français.

En langue française, j’ai identifié deux sources fiables, toutes deux canadiennes. La direction de l’éducation française de la province de l’Alberta a produit des documents de grande qualité sur un grand nombre de sujets, qui sont tous librement disponibles en ligne. La page Répondre aux besoins de chaque élève est une mine d’or d’information et de ressources pour enseigner aux élèves à besoins éducatifs particuliers (explorer les pages du menu de gauche). La page Participation à la vie sociale couvre plus particulièrement les aspects comportementaux, avec notamment les 3 documents ci-dessous:

Il existe également un livre récent (que je n’ai pas consulté) qui décrit l’un des programmes ayant une bonne preuve d’efficacité, le Soutien au comportement positif:

On pourra également consulter les deux articles ci-dessous qui parlent de ce programme:

Conclusion

En France, dans le domaine de l’éducation, tout le monde a un avis, professionnels comme usagers, et tout le monde le donne, parfois avec beaucoup d’aplomb. Et pourtant, presque personne ne connait les résultats des études scientifiques internationales sur les sujets qui sont évoqués. Le résultat, c’est que des mythes maintes fois réfutés continuent à jouir d’une grande popularité et à se propager, que des pratiques inefficaces perdurent, et que des pratiques à l’efficacité prouvée restent totalement inconnues et inutilisées.


* Une méta-analyse est une procédure statistique permettant de compiler les données de différentes études, de manière à voir si une tendance générale se dégage, quand bien même les études individuelles peuvent rapporter des résultats différents voire contradictoires.