Menu Fermer

Des chiffres, des conclusions et … des élèves

Un article de Laurent Fillion à retrouver aussi sur son blog

Émoi national en vu, Une du Monde, lamentation du Figaro, discussion passionnée sur les réseaux sociaux et forums : le niveau des collégiens s’effondre en histoire-géographie !

A l’origine de cette conclusion : une étude de la DEPP qui a comparé les résultats à un même questionnaire d’un échantillon d’élèves de 2012 à un autre échantillon de 2006.

Mais quand donc va-t-on arrêter de prendre nos élèves pour des numéros ? Pour un matériau ? Pour des statistiques ? Quand donc va-t-on cesser ces évaluations quantitatives qui ne servent qu’à renforcer les convictions de chacun sans pouvoir servir de levier aux progrès éducatifs.

Quand donc l’Éducation Nationale cessera de voir dans nos élèves de simples %, entre taux de passage, contrats d’objectifs, % de réussite, rapports de fonctionnement …

Les résultats ont baissé de 11 points ! soit ! La seule conclusion à tirer de cette étude c’est que l’échantillon de 2012 a obtenu en moyenne 11 points de moins que l’échantillon de 2006! Qui nous dit que les résultat auraient été les mêmes avec un échantillon choisi plus tôt ou plus tard.

N’importe quel enseignant honnête (il y en a) reconnaîtra que d’une année sur l’autre les résultats peuvent sensiblement varier avec les mêmes cours, les mêmes programmes, le même prof ! En effet, nos élèves (et leurs enseignants) sont des êtres humains (nos statisticiens semblent parfois l’oublier) et les raison d’une réussite ou d’un échec sont tellement diverses qu’il est bien difficile de les appréhender.

Si la production de blé a chuté depuis six ans, trouvez des explications dans le climat, l’origine des semences et la qualité des engrais utilisés mais de grâce n’ayons pas les mêmes réflexes dans le cas présent.

Si l’étude avait porté sur un questionnaire posé tous les ans pendant vingt ans, je pourrais l’entendre, et encore.

Je suis persuadé que si l’étude avait montré une hausse de niveau, les déclinistes auraient crié à la manipulation ou auraient avancé les arguments exposés plus haut. Mais là évidemment ils s’engouffrent dans la brèche.

Sitôt les résultats de cette étude divulgués, sans même l’avoir lue les commentaires n’ont pas tardé sur les différents lieux d’expression de tous les néoconservateurs du monde enseignant. Ainsi certains ont cru pouvoir avancer qu’il s’agissait là de la preuve du déclin ininterrompu du niveau de nos élèves “qui ne connaissent même plus Richelieu”, d’autres ont trouvé l’explication dans l’absence de la chronologie et de l’histoire nationale dans les programmes (Dimitri vite !). On a bien évidemment eu droit à la responsabilité des profs pédagogistes (raisonnement hasardeux de ces déclinologues réactionnaires qui se revendiquent par ailleurs ultramajoritaires ; nous leur ferons grâce de leur retourner l’explication …) Je peux jouer aussi à ce jeu des hypothèses et en m’appuyant davantage sur l’étude en question : il y a six ans les élèves avaient bénéficié des itinéraires de découverte en 5ème et 4ème, ceux de 2012 non : il faut donc rétablir au plus vite les IDD. On continue ou on redevient sérieux ?

Il ne s’agit pas de refuser de voir les problèmes mais au contraire de vouloir vraiment les cerner, tels qu’ils sont et non tels qu’on se les imagine depuis que l’école existe. Entre “le niveau baisse mais surtout ne changeons rien” et “tout va très bien” il y des postures constructives.

Certains aspects de cette étude sont d’ailleurs intéressants : les résultats sont moins bons en ZEP qu’ailleurs (mais avait-on besoin d’une étude pour découvrir cela ?) notamment parce que les élèves de ces quartiers passent moins de temps à la maison consacré à l’histoire-géo. Une nouvelle confirmation que le travail à la maison est un facteur d’aggravation des inégalités. Dois-je préciser que cette conclusion a elle été passée sous silence par les déclinistes ?

Dès que l’on sort des conclusions quantitatives pour des lectures plutôt qualitatives, ce genre d’études peut pourtant nous être utile. Seulement, c’est moins médiatiquement spectaculaire.

Ainsi cette enquête réalisée à partir du questionnaire du CEDRE nous permet de connaître les domaines dans lesquels les élèves réussissent davantage et ceux pour lesquels les problèmes demeurent (quel que soit l’échantillon). De quoi nous questionner sur les finalités données à nos enseignements.

Et si l’on veut faire une étude statistique sur l’évolution du niveau des élèves, pourquoi ne pas la réaliser pour mesurer l’évolution d’un même élève. Suivons le parcours d’un échantillon de la petite section à la sortie d’études. Repérons, mesurons les progrès effectués dans les apprentissages et à quels moments, repérons les régressions (il peut y en avoir). Repérons les moments où les élèves en difficultés perdent leur appétence pour les apprentissages, ceux où ils décrochent. Repérons pour les élèves en réussite les moments où ils creusent l’écart avec les autres. Avec une telle étude “humaine” plus que chiffrée, qualitative plus que quantitative, on pourrait peut-être comprendre et expliquer davantage les raisons du succès et des échecs : effet maître / effet programmes / situation familiale / situation sociale etc…

On pourrait même agir concrètement pour qu’un jour nos journaux titrent “le niveau monte !”, … là c’est peut-être trop demandé…

NB. Ce texte est initialement paru sur le blog de l’auteur.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *