Le texte de Didier Muguet, reproduit ci-dessous avec son autorisation, non seulement est une des plus riches analyses de PISA publiée, mais il met aussi en parallèle ce qu’induit cet outil non critiqué et ce que devrait être le rôle de l’école dans une éducation émancipatrice (entre autres dans la culture scientifique) – BC –
PISA, UN FÉTICHE UTILE A QUOI ?
**Didier MUGUET
Peillon “décroche totalement”… des réalités !
Les gouvernants ont, pour établir un diagnostic sur l’état de leurs écoles, un oracle infaillible qu’ils consultent régulièrement avant de prendre les décisions que requiert leur autorité, comme les rois consultaient leurs astrologues et leurs mages.
Mais cette fois, le ministre pratique lui-même la divination avant même de consulter la pythie de l’OCDE qui ne parlera que début décembre.
Interrogé le 10 octobre sur un média , il a déclaré :
“vous allez voir, en décembre, on va avoir les nouvelles études PISA. La France décroche totalement” ! Alors même que l’OCDE n’a publié aucun résultat, “Peillon le voyant” connaitrait déjà l’issue de ce qui n’est pas une “étude” mais une enquête, une évaluation.
L’idée d’un “décrochage” pourrait avoir un sens pour celui qui ignorant totalement le fonctionnement du test PISA ne s’attacherait qu’au classement que retient la presse pour désinformer le public. Constater que “La France” passe de la 10ème à la 17ème place peut sembler une “dégringolade” comme dans un palmarès sportif. Or PISA n’est pas une course de côte.
Comme l’a dit un chercheur spécialiste de ces questions, le palmarès n’a pas de sens! Pourquoi? Parce que les scores sont extrêmement proches à l’intérieur de groupes de pays situés dans la même moyenne. Les écarts sont en fait très peu significatifs, et “La France” ne bouge pas dans le groupe où elle se trouve.(1)
Ainsi que l’a analysé J.Y.Rochex :
“Les classements entre les pays ayant participé aux différentes enquêtes Pisa sont aussi peu intéressants que ceux que l’on peut opérer entre les élèves d’une classe. Ces classements sont parfois fondés sur des écarts de performances qui ne sont pas statistiquement significatifs, ce qui n’empêche pas médias et politiques de les commenter sans grande rigueur. De plus, s’il peut être intéressant de comparer les performances entre pays avec des enquêtes telles que Pisa, ce ne peut pas être seulement pour comparer leurs performances moyennes. Il convient de considérer l’ensemble des résultats : moyenne, dispersion rendant compte des inégalités, part de la population testée ne parvenant pas à tel ou tel seuil, etc. Enfin, si l’on fait cela avec méthode, reste encore à savoir ce que l’on évalue et compare ainsi : les performances des systèmes éducatifs, ou les caractéristiques culturelles des pays, ou encore l’efficacité de l’éducation des familles ?” (1)
Les écarts de scores qui sont importants et à interroger ne se situent pas entre les pays mais bien plutôt à l’intérieur des pays, ce que souligne un commentateur français de ce test :
“Autrement dit, les écarts entre pays sont minimes par rapport aux différences de scores entre les élèves d’un même pays. Même si au niveau visuel, et sur la base des représentations graphiques qui accompagnent les commentaires dans les rapports, on constate bien la faible variation des scores entre de nombreux pays, il reste que l’échelle de mesure de PISA, exprimée en centaines de points, n’est pas familière au public et peut, d’une certaine manière, donner une image plus accentuée de la situation réelle. Ainsi, ce sont davantage les écarts absolus exprimés en points qui sont commentés au détriment des écarts relatifs (en unités d’écart-type) pourtant plus pertinents pour les chercheurs. L’idée est donc ici de proposer une lecture plus directe des résultats de l’enquête PISA afin de relativiser le classement international et de mettre davantage en évidence ce qui est le plus significatif dans les résultats obtenus, à savoir les différences entre les élèves.” (2)
Ainsi, en France, l’évolution significative est celle de l’écart grandissant entre le groupe 5 (ceux qui réussissent par ex. les épreuves de lecture complexe) et les groupes 1 et 2 (ceux qui n’ont pas les compétences les plus élémentaires définies par PISA)
La prophétie de Peillon est en fait simplement révélatrice du rôle que joue le test PISA dans la rhétorique politique. Peillon tient exactement le même discours que ses prédécesseurs pour affirmer que l’état de l’école est catastrophique, mais que demain grâce à ses réformes, ça ira vachement mieux !
Que le ministre n’a aucune idée de ce qu’est réellement le test PISA, de ce qu’il construit, de ce qu’il cherche à mesurer, de la valeur de ses résultats, c’est une évidence ! Mais ce qu’il en dit rejoint l’image générale présenté au public, celle d’un simple outil, un “thermomètre” censé rendre compte du niveau des systèmes scolaires, permettant de classer les pays, comme le fait une agence de notation. On ne se demande pas pourquoi, comment, avec quelle grille conceptuelle, à partir de quels principes, selon quels intérêts, sont construit les dispositifs producteurs de notes. On les reçoit comme des données. Certains vont même à les qualifier “d’objectives” ( Bruno Suchaut)!
Ce “thermomètre” qui est devenu une référence pour les décideurs, observateurs, analyseurs, chercheurs, contrôleurs, inspecteurs des systèmes éducatifs, serait plutôt un théâtre de persuasion !
La preuve que PISA est un dispositif fictionnel complètement trompeur c’est tout d’abord qu’il met en tête de palmarès le pays qui a le plus mauvais système scolaire : la Corée du sud.
Ensuite, cette grosse machinerie, dopée par la Banque mondiale et concoctée par les experts de l’OCDE, cherche à produire des mesures, et pour cela est amenée à supposer un champ d’homogénéité sur lequel puisse s’appliquer la mesure comparative, et cela au moyen d’une notion de compétence totalement fictive, abstraite, décontextualisée, déterritorialisée. Ce en quoi PISA n’est pas un “révélateur” d’acquis, mais un producteur de normalisation. Il ne mesure rien, il impose une mesure sur une multiplicité hétérogène.
La Corée, un modèle ?
Voici ce que l’on peut lire sur le site de l’UNESCO :
“Grâce à son développement économique rapide et au processus de démocratisation, la République de Corée (ROK) est passée d’un pays pauvre à un pays industrialisé reconnu pour son savoir-faire. Son système éducatif est aujourd’hui l’un des plus avancés des pays de l’OCDE (voir les résultats du PISA, le Programme international pour le suivi des acquis des élèves de l’OCDE).Pour la deuxième année consécutive, le gouvernement coréen a invité les participants du Programme de formation approfondie de l’IIPE (PFA) pour qu’ils découvrent le système d’éducation sud-coréen et les politiques qui ont contribué à son développement.” (3)
Et pour tous les commentateurs ignorants de ce qui se passe dans ce pays mais admirateurs de ce “meilleur élève” de la compétition , seule compte la performance et son résultat. Même le ministre écrit dans son livre “Refondons l’école. Pour l’avenir de nos enfants” ( Seuil) :
“les systèmes scolaires les plus performants, de la Finlande à la Corée du Sud, aussi différents soient-ils, partagent un certain nombre de traits communs. Ils prêtent, au début de la scolarité, une attention particulière aux premiers apprentissages. Ils offrent une véritable formation initiale et continue à leurs enseignants, fortement professionnalisante, permettant une entrée progressive dans le métier […]. Ils réduisent les inégalités par une certaine forme de mixité scolaire et sociale, et offrent à tous leurs élèves un enseignement commun, jusque tard dans la scolarité.”
Pourtant, derrière ce cliché de “premier de la classe”, il y a un système éducatif profondément pathologique, et pathogène, stressant et “infernal”, et au bout du compte, peu performant, éducatif, formateur. Toute la vie du jeune coréen est réduite au travail scolaire et à la préparation aux examens, 6 jours par semaine de 8h à 23h, cumulant sa journée à l’école publique, sa soirée à l’institut privé (55 000 hagwons en Corée), et les cours privés. Et en quoi consiste ce “travail scolaire” ? Essentiellement en la préparation aux tests, en la capacité à répondre à des QCM, où le programme se réduit à quelques matières, et où l’apprentissage consiste en mémorisation, discipline, répétition.
L’unique moteur de cette instruction est la compétition à outrance pour être toujours le meilleur. C’est pourquoi on ne peut comparer un élève coréen et un élève français, c’est un peu comme si on comparait un pilote de formule 1 qui s’entraine tous les jours sur son circuit et le conducteur lambda qui y vient pour la première fois.
Les effets de ce système peuvent être ainsi décris:
“Ces orientations favorisent la compétition la plus débridée entre les élèves avec la réapparition des examens préparatoires aux concours d’entrée, le bachotage, les cours privés. Les enseignants sont gagnés par le même esprit de compétition favorisé par le « bonus system » hérité de l’industrie et que le ministère de l’éducation tend à instaurer comme système de promotion. Mais surtout règne l’indifférence aux problèmes humains que génère une société scolaire partagée entre gagnants et perdants. Cette évolution a entraîné une chute de l’enseignement public et sa désaffection par les classes moyennes. Le nombre d’élèves quittant le secondaire en cours de cursus a atteint 600 000 en 1997. Certes quelques groupes tentent de réagir contre la propagation, le « fléau social majeur », véritable psychose sociale. En fait l’inégalité est prônée comme le moteur de l’évolution de l’éducation, selon une sorte de darwinisme scolaire. Elle correspond à ce monde des marchés dans lequel l’éducation n’est plus considérée que comme une marchandise. ( In “effect, education is seen as simply one more product like bread, cars, and television”. Le principe de cette marchandisation de l’éducation est que l’école doit être rentable. “(4)
Le contre-coup de cette compétition à outrance (5), de la pression des familles qui surinvestissent financièrement jusqu’au sacrifice, de la honte de l’échec, du respect aveugle de l’autorité, c’est que la Corée du sud est aussi le n°1 pour un autre palmarès :
celui du nombre de suicides de jeunes qui n’arrivent pas à supporter les exigences que l’on fait porter sur eux. En 2009, 202 élèves du secondaires se sont suicidés selon les chiffres du ministère.
Selon un universitaire très critique de ce système, les élèves coréens sont préparés pour les tests, mais quand ils entrent dans le monde de la culture universitaire, ils n’ont pas les compétences pour réussir, et 44% abandonnent avant d’obtenir un diplôme. Autrement dit, l’école fabrique énormément de jeunes dociles, mais privés de ce qui fait une éducation culturelle complète et riche.
“L’école est morte, l’éducation reste morte, les élèves agonisent”, dit un jeune coréen (6).
Ce système est somme toute conforme au totalitarisme qui a régné et règne encore sous d’autres formes dans ce pays, la dictature militaire ayant été remplacée par la dictature patronale (7); les libertés démocratiques et les droits de l’homme y sont encore un rêve lointain.
Que les politiques aux oeillières collées sur leurs indicateurs, leurs standards, leurs indices de “croissance” et autres fétiches, sans évoquer la réalité qu’ils recouvrent, soient admiratifs d’un système mortifère, est-ce normal ou inquiétant ?
PISA , c’est quoi ?
“Avec le Programme international de l’OCDE pour le suivi des acquis des élèves (PISA), les gouvernements des pays de l’OCDE s’engagent à suivre, au sein d’un cadre international commun, l’évolution des résultats des systèmes éducatifs en se fondant sur les connaissances des élèves. “ (Mesurer les connaissances et compétences des élèves, un nouveau cadre d’évaluation, OCDE, 1999).
Tant la présentation de l’enquête par les experts de l’OCDE, par les porte-parole des différents ministères de l’éducation des 67 pays participants, que les commentaires publiés par la presse et les analyses faites par bien des “experts” de l’éducation, tous à différents degrés nous présentent PISA comme l’indicateur objectif qui rendrait compte de l’état, de la valeur des systèmes scolaires. Tous véhiculent la certitude que PISA constitue un dispositif qui évalue vraiment ce que savent les élèves. L’image générale proposée est celle du révélateur, PISA est un thermomètre.
Et les sociologues -Duru-Bellat, Suchaut, Mons – fondent leurs théorisations sur les données offertes par PISA; ainsi C.Baudelot :
“Les chercheurs du Pisa ont intériorisé ces difficultés [de la mesure]. Ils ont fixé à leur enquête des objectifs réalistes : décrire le spectre des compétences, depuis les plus modestes jusqu’aux plus virtuoses, dans trois domaines qui ont une importance vitale, quel que soit le pays concerné (la culture mathématique, la compréhension de l’écrit, la connaissance du monde extérieur). Cela ne fait pas le tour de toutes les compétences utiles (pensons au dessin, à la musique instrumentale, au chant choral, au travail manuel, aux langues étrangères, aux arts ménagers…). Mais les trois domaines soumis à investigation sont partout suffisamment importants pour inaugurer une comparaison.”(8)
On s’interroge assez peu sur la manière dont est construit le test, ses postulats, les instruments utilisés, le choix des épreuves. Et on s’interroge encore moins sur les implicites- catégories, normes, standards, définitions, représentations – supposés, mis en œuvre, induits par le test.
On s’interroge assez peu sur la manière dont est construite cette machinerie à mesurer, prise en fait comme une sorte de “boite noire” fiable dont on aurait juste à attendre les chiffres fatidiques.
Il importe au contraire d’aller voir dans cette “boite” ce qui s’y fabrique, car ses “produits” sont entièrement liés à son processus de fonctionnement. Les “données” fabriquées par cette boite ne sont justement pas des données, l’image de quelque chose qui pré-existe mais des construits. Au delà des grandes déclarations de principe sur “l’évaluation des acquis”, il faut aller voir la manière très singulière dont sont évalués les jeunes et comment les procédures utilisées sont l’application d’un certain nombre de présupposés sur ce que serait une connaissance, une compétence, la culture, sur ce qui est “utile”, sur ce qu’est “une vie réussie”, etc. La construction des instruments d’évaluation privilégiée par PISA et les argumentations psychométriques qui soutiennent le choix des procédures impliquent et appliquent des définitions très partiales de ce que sont la lecture, la compréhension, l’information, l’interprétation,….
Dans la boite noire
L’OCDE a publié un gros document explicatif de 280 pages à propos de PISA 2012
“Cadre d’évaluation et d’analyse du cycle PISA 2012 , COMPÉTENCES EN MATHÉMATIQUES, EN COMPRÉHENSION DE L’ÉCRIT, EN SCIENCES, EN RÉSOLUTION DE PROBLÈMES ET EN MATIÈRES FINANCIÈRES “.
La construction du test y est amplement justifiée et commentée et des exemples d’épreuves y sont fournis.
Les élèves passent une épreuve “papier-crayon” de deux heures, composée de plusieurs “blocs” de domaines et pour environ une cinquantaine d’items :
“Dans les épreuves papier-crayon, certains items PISA appellent soit des réponses courtes, soit des réponses d’une ou deux phrases, alors que d’autres demandent simplement aux élèves d’entourer une réponse ou de cocher une case. Les décisions à propos des formats de réponse se basent sur ce qui est jugé approprié compte tenu du type d’informations à recueillir, ainsi que sur des considérations techniques et pragmatiques. “(p.169)
Les QCM représentent environ 1/3 du total, et le reste, des questions fermées et des questions ouvertes “à réponse construite”.
Conformément à son objectif de ne pas évaluer les programmes scolaires mais plutôt les compétences des jeunes de 15 ans pour ” relever les défis que l’avenir leur réserve” :
“L’enquête PISA se fonde sur une conception de l’évaluation des connaissances, des compétences et des attitudes qui reflète l’évolution des programmes d’enseignement : elle va au-delà des acquis purement scolaires et se concentre sur la mise en œuvre des savoirs et savoir-faire dans des tâches et des défis quotidiens, que ce soit en famille ou dans le monde du travail. Elle repose sur un modèle dynamique d’apprentissage qui veut que les individus acquièrent, de façon continue au cours de leur vie, de nouvelles connaissances et compétences dont ils ont besoin pour s’adapter dans un monde en constante évolution. L’enquête PISA cible des activités que les élèves âgés de 15 ans auront à accomplir dans l’avenir et cherche à identifier ce qu’ils sont capables de faire avec ce qu’ils ont appris “(p.13 )
Cherchant donc à évaluer
” leur faculté de réflexion et leur capacité à appliquer leurs connaissances et leurs expériences dans des situations qui s’inspirent du monde réel. “, les épreuves vont proposer toute une suite de blocs d’items faisant référence à la vie quotidienne.
Pour la “litéracie” en 2009, les types d’items contenaient ainsi : se repérer dans une bibliothèque, lecture d’un avis au supermarché, comment se brosser les dents, la sûreté des téléphones portables, êtes-vous pour la recherche spatiale ?, texte de Thucydide sur la démocratie, article de presse sur les plus hautes tours du monde, un extrait de pièce de théatre, un plan de métro…- on peut lire une liste plus complète des items de maths passés publiés par la DEPP-(9)
Le premier problème posé par l’enquête PISA se situe sur cet énorme paradoxe : faire passer pour équivalents son épreuve papier-crayon minutée et une situation de la vie réelle, assimiler une course de questions en passant d’un sujet à l’autre dans un ordre prédéfini à ce que serait une pratique d’usage.
Naïveté qui ferait sourire n’importe quel enseignant un tant soit peu soucieux de la difficulté à réinsérer les savoirs scolaires dans des pratiques sociales. On pourrait même suggérer que le format de l’épreuve constitue exactement l’inverse d’une situation de la vie réelle.
Cette “faille” n’est pas passée complètement inaperçue aux yeux des concepteurs, puisqu’ils ont senti la nécessité d’une certaine “contextualisation” des items, mais la solution adoptée est significative du “behaviorisme”(10) auquel se réduit cette question complexe :
“Que ce soit dans les épreuves papier-crayon ou dans les épreuves informatisées, les connaissances et les compétences sont évaluées au moyen d’unités constituées d’un stimulus (par exemple, un texte, un tableau, un graphique, un schéma, etc.) et d’une série d’items se rapportant à ce stimulus. C’est une caractéristique importante des épreuves dans la mesure où des questions plus approfondies peuvent être posées, ce qui ne pourrait être envisagé si chaque question s’inscrivait dans un contexte totalement nouveau. Cette approche donne aux élèves le temps d’assimiler le stimulus, qui peut être utilisé pour évaluer de nombreux aspects de la performance. “ (p.20)
Question essentielle sur laquelle un analyseur attentif du dispositif PISA n’avait pas manqué de nous avertir il y a 10 ans déjà:
“Pour mesurer de façon valide les compétences en lecture, et pour apprécier de façon fiable et crédible le niveau des élèves (notamment la proportion de médiocres lecteurs; cf. niveaux 1 et 0), il faut que «les compétences testées correspondent à des situations les plus proches possible de la vie réelle» (Lafontaine, Baye & Matoul, 2001 p. 1). Ce n’est que très partiellement le cas, si nous nous en référons au matériel publié. En tout premier lieu, les lectures demandées ne sont pas mises en contexte; elles ne sont pas situées en tant qu’activités langagières effectives par rapport à une utilisation particulière dans un espace social défini, permettant de savoir plus précisément quel est l’enjeu, quelle est la tâche du lecteur et quelle signification elle peut prendre pour lui. Sur ce point, nous ne trouvons pas de traces très convaincantes des intentions des responsables de l’enquête selon lesquels : «En général, les questions et les consignes font référence à un but dont le lecteur est censé tenir compte au cours de sa lecture et de son interaction avec le texte» (OCDE, 1999, p. 27). En fait, dans le test, «la notion de situation se réfère davantage à l’usage auquel l’auteur destine son texte qu’aux circonstances dans lesquelles le texte est effectivement lu» (OCDE, 1999, p. 27).
Par ailleurs, la situation de test en général et plus particulièrement la succession de textes différents dans un même cahier de test rendent difficile toute mise en situation crédible ou efficace. “(11)
Le test semble ignorer la fameuse maxime d’Alfred Korzybski “la carte n’est pas le territoire”!
Interpréter le plan d’une bibliothèque, pour reprendre un des items proposés, n’est pas la même chose que d’y flâner et discuter avec la bibliothécaire à propos d’un roman conseillé. Dans la vie réelle, la personne est engagée par des modes d’affectation, de perception, de connaissance, elle est insérée dans un complexe d’interactions, d’interprétations, d’intentions, de projections, territorialisée dans un milieu, et son action ne se limite pas à des programmations linéaires définies sur un seul paramètre. Mais ça n’empêche les concepteurs du test de poser l’identité entre situation du test et situation “réelle”.
Alors que le test propose même une démarche qui serait plutôt le contraire de ce qui se produit dans la vie réelle, ainsi en lecture : un document est donné, ensuite il s’agit de répondre à une série de questions, et à la fin de conclure par une “ouverture” du sujet abordé. C’est une conception particulièrement limitée et réduite de la lecture (12), qui en fait serait plutôt du genre “réponse à des consignes”. Dans la vie réelle, il y a d’abord la situation, le problème, un besoin, un questionnement et ensuite mise en œuvre de stratégies de recherche, relativement à des pratiques d’usage singulières.
On mesure mais on ne sait pas ce qu’on mesure.
Les cahiers d’épreuves PISA posent en outre de sérieux problèmes soulevés par plusieurs analystes, quand au lien entre item et compétence qui recèle tout un tas d’a priori, de postulats, d’implicites réducteurs, que l’on peut résumer ainsi :
Est-ce que le fait de réussir à un item signifie que l’on peut généraliser cette réussite à tout le champ de la compétence dont il prétend rendre compte ?
La réussite à un item permet-elle d’inférer l’existence d’une compétence déterminée et laquelle en l’absence de prise en compte des processus qui ont conduit à produire tel résultat ?
Qu’est-ce qui prouve que la compétence mise en œuvre dans la réponse soit celle que le test prétend évaluer et pas une autre ?
Est-ce que les différences de difficulté – PISA construit 5 niveaux- entre les items sont réductibles à de pures différences quantitatives ainsi que le construisent les scores ?
Et du coup, est-ce que les différences entre les compétences des élèves sont réductibles à des différences de niveaux ?
Autre problème de cette course d’obstacles, que signifie le fait de lier le score au nombre d’items réussis ?
L’important est-il la quantité de bonnes réponses ou le contenu des taches à effectuer et les démarches réalisées par les élèves ?
Doit-on accepter l’idée que seul le niveau important, les élèves mettraient en oeuvre des processus et des stratégies similaires ?
Dans un travail d’enquête sur les “postures” des élèves face au test, J.Y. Rochex a montré que les items supposés équivalents pour les élèves ne le sont pas du tout :
“L’examen de ces cinq questions, composantes d’une question plus générale de l’épreuve PISA, montre ainsi, d’une part, combien le choix de la réponse attendue peut masquer, d’un élève à l’autre mais aussi d’une question à l’autre pour un même élève, des modes de travail très différents et intellectuellement forts inégaux, d’autre part combien le format de la question (de type vrai/faux) et la sommation des réponses portent à occulter la diversité des difficultés posées par cinq questions apparemment semblables, mais en réalité fort différentes, quoique considérées sans doute un peu trop rapidement comme équivalentes.” (13)
Peut-on évaluer quelque chose qui n’existe pas?
L’écueil de l’équivalence postulée entre compétence formée dans un système scolaire particulier, compétence saisie par le test et compétence en situation réelle, comme si la compétence était une réalité autonome se baladant de contexte en contexte, devient encore plus caricatural lorsqu’il s’agit d’évaluer le domaine appellé “culture scientifique” des jeunes.
Les objectifs pour ce domaine sont définis ainsi :
” Il s’agit de déterminer dans quelle mesure les élèves sont capables de mettre en œuvre les compétences suivantes :
• identifier des questions d’ordre scientifique ;
• expliquer des phénomènes de manière scientifique ; et
• utiliser des faits scientifiques. “(14)
Quand on regarde les items (15) proposés pour cette épreuve, ils consistent essentiellement en questions de lecture : tableaux, courbes, graphes, articles de presse, et de restitution de connaissances du programme ou acquises hors l’école, et principalement de savoir choisir entre quatre réponses proposées.
Il ne s’agit en aucun cas d’évaluer la connaissance des programmes disciplinaires de sciences, ni non plus des démarches d’expérimentation, de recherche, d’observation, d’invention, de controverse, d’imagination, ce que développe par exemple le projet “les petits débrouillards”! ou le Laboratoire de didactique et épistémologie des sciences (LDES à Genève) avec A.Giordan :
“« Faire des sciences » devrait conduire à développer d’abord des attitudes : curiosité, envie de chercher, esprit critique, créativité,…”
Tous les processus multidimensionnels de constructions de solutions sont réduits encore une fois à la simple exécution de consignes. Outre le fait que n’est même pas problématisé la question de ce que peut bien être une “culture scientifique”. Car comme le remarquait J.M. Lévy-Leblond :
“Peut-on vraiment parler de culture scientifique ? Pour le dire d’emblée, je n’en suis par certain ! “(16) “L’idée de culture scientifique me semble donc désigner au mieux une sorte d’horizon, vide pour l’instant. C’est pour cela que j’avais proposé, il y a un certain temps, une formule alternative en disant que le problème était moins de « diffuser la culture scientifique » que de « mettre la science en culture ».
Le modèle de la transmission suppose qu’il existe une culture scientifique, et qu’elle serait dans les mains des scientifiques. D’un côté il y a ceux qui savent, les émetteurs, et de l’autre le public qui ignore et qui réceptionne un savoir sans lequel, comme l’écrivaient les scientifiques qui ont rédigé l’Appel de Heidelberg (dont Bourdieu)
“ils sombrent dans une idéologie irrationnelle qui s’oppose au progrès scientifique et industriel”. Ce que les apologètes du modèle scientiste ne peuvent pas voir, c’est que l’enjeu s’est déplacé sur la critique du mode de régulation des sciences, de l’expertise, de la construction du savoir. Jean-Marc Lévy-Leblond l’affirme, ce sont plutôt les scientifiques qui manquent de culture : en s’adressant au public comme ceux de Heidelberg, en se proclamant “tête pensante de l’humanité” (Stengers).
Implicitement, l’épreuve PISA cautionne un certain nombre d’a priori forts discutables et disputés, contestés, sur l’idée qu’on peut postuler des définitions univoques, évidentes, consensuelles, universelles, sur ce qui serait une “question d’ordre scientifique”, sur ce qu’est “un fait scientifique”, sur “la démarche scientifique”,” l’explication scientifique” (sous entendu, les scientifiques expliquent la “réalité”, le public dispose, et non pas rajoute des dimensions indispensables à la proposition du scientifique).
Comme le résume la brochure de présentation :
“Les faits sont souvent d’ordre scientifique, certes, mais la science a un rôle plus général à jouer, dans la mesure où son propos est d’établir un principe de rationalité dans des démarches permettant de mettre des idées et des théories à l’épreuve des faits. “ p.105
Les partis-pris adoptés par les concepteurs de PISA sont ceux d’une certaine représentation des sciences, une certaine image fabriquée pour le public, une véritable mythologie qui dit tout le contraire de ce que construisent réellement les sciences, et qui infuse les institutions des sociétés modernes.
Le signifiant “La Science” est une “représentation publique” qui unifie un ensemble disparate de pratiques, qui justifie des principes de séparation, pur/appliqué, fait/valeur, sujet/objet, nature/culture, vérité/opinion, savant/profane, etc. Elle justifie une hiérarchie dans les savoirs en instaurant en modèle de la connaissance objective la pratique expérimentale, elle développe un discours sur l’autonomie quand la réalité des sciences se construit dans des réseaux de dépendance et des rapports de pouvoir.
Et l’école est son premier propagandiste : il faut
“faire aimer la science”, comme l’a exprimé un doyen des inspections, inquiet du “relativisme” qui érode la “conception classique des sciences” qu’il conviendrait de défendre.
“Il y a donc là un enjeu de l’enseignement des sciences qui n’est pas seulement un enjeu de formation, de compétences, de professionnalité, mais qui devient un enjeu culturel et un enjeu politique fort. C’est dans la capacité que nous avons ou non d’instruire les jeunes, de les faire accéder au raisonnement scientifique et de les éduquer à consentir aux faits tels que la science les établit que la solution de ce problème politique réside.” (17)
La réthorique de la hiérarchie de l’EN liant la science à la rigueur, la rationalité, la nécessité, la méthode, le consentement aux faits objectifs, cherche à diffuser une vision morale et politique des sciences, au nom de “La Science”. La science, opposée à l’opinion, à l’idéologie, à la croyance, l’obscurantisme, l’irrationnel, invoquée domaine privilégié du savoir vrai, est le lieu commun, la fiction, qui sert avant tout à occulter la politique des sciences; un “amalgame”, comme le qualifie Stengers, qui unifie et occulte la singularité de composantes différentes, leurs styles, leurs valeurs, leurs approches, leurs perspectives. Car “La Science” comme idée d’un domaine à part, pur, neutre, universel, indépendant, est un moyen d’occulter la symbiose qui s’est effectuée avec les dynamiques capitalistes d’appropriation-redéfinition.
Dans le test PISA, l’unité d’items intitulée “cultures génétiquement modifiées” est significative de la manière dont est interprétée la notion de “fait scientifique”, du rôle attribué au chercheur et de l’assignation collée au public. Les items ne demandent que de choisir parmi les raisons proposées de l’expérimentation en plein champ: l’OGM fait-il disparaitre les insectes comme l’herbicide? pourquoi planter 200 champs plutôt qu’un seul ? Laissant supposer que c’est à ce niveau que se situe l’expertise scientifique. Une fois le fait accompli! Un élève qui proposerait l’arrachage comme seule réponse sensée, seule solution scientifique pour décontaminer la biodiversité et l’agriculture, aurait comme score zéro !
Comme en témoigne I.Stengers au procès de Termonde (18), parlant des “arracheurs d’OGM”:
“je dirais même que certains sont de véritables chercheurs parce qu’ils ont participé à l’apprentissage des raisons nombreuses pour lesquelles les stratégies industrielles de redéfinition de l’agriculture sont un danger pour l’avenir de l’humanité et une menace de désastre écologique. Ils analysent les effets de la mise sous brevet des semences, les dangers de la monoculture du fait de sa vulnérabilité aux épidémies, l’impossibilité d’empêcher des transferts génétiques disséminant les gènes intégrés à une plante à d’autres plantes ou d’éviter l’apparition de champignons ou d’insectes qui résistent aux pesticides que produisent par exemple les pommes de terre expérimentées …”
Bref, PISA confond tout simplement bricolage biotechnologique à but lucratif (19) et “fait scientifique”.
Enseigner les valeurs, oui, mais boursières !
La brochure PISA 2012 s’auto-congratule fièrement d’avoir introduit un nouveau domaine dans son test. On pourrait penser aux valeurs justement, celles proclamées (appliquées est un autre sujet !) par bien des systèmes éducatifs, …ou les droits et la défense des libertés individuelles et collectives.(20)
“Depuis quelques années, les pays et économies développés ou émergents se préoccupent de plus en plus du niveau de culture financière de leurs citoyens, en raison de la contraction des systèmes publics et privés de soutien, de l’évolution démographique, dont le vieillissement de la population, et des développements importants intervenus sur les marchés financiers. Ils s’en préoccupent d’autant plus que la conjoncture économique et financière est difficile et qu’il est établi que le manque de culture financière compte parmi les facteurs qui amènent les citoyens à prendre des décisions financières en mauvaise connaissance de cause, ce qui est extrêmement lourd de conséquences” (p.148) Il faut lire toute l’intro car c’est un merveilleux condensé d’une certaine idéologie néolibérale que l’on prend pour une analyse économique. En conséquence:
“Il est important que les individus possèdent une certaine culture financière avant qu’ils ne s’engagent dans des contrats et des transactions financières de grande ampleur. Dispenser dès le plus jeune âge des programmes d’éducation financière de qualité est essentiel pour inculquer aux individus de bonnes connaissances financières et leur apprendre à adopter un bon comportement en la matière, ce qui leur sera utile par la suite .”(p.151)
Mais on s’étrangle à la lecture des items censés évaluer ce qui devrait être une préoccupation d’ado de 15 ans : identifier des informations financières indiquées sur un bulletin de salaire, évaluer les risques dans une assurance moto, évaluer le cours des actions, réfléchir aux conditions d’un prêt, déterminer les conditions de sécurité de la carte bleue. Il ne manque plus que l’étude de la courbe du chômage qui les attend !
Mais qui a conçu un test aussi… !?
Pour la réalisation des cahiers de tests, l’OCDE a passé contrat avec deux sociétés : Le cadre d’évaluation de la culture mathématique a été élaboré conjointement par l’Australian Council for Educational Research (ACER) et une organisation de recherche pédagogique basée aux États-Unis, Achieve Inc.
ACER est marchand en gros de tests pour le monde anglophone !
Qui est “Achieve Inc.”?
“At the 1996 National Education Summit a bipartisan group of governors and corporate leaders decided to create and lead an organization dedicated to supporting standards-based education reform efforts across the states. To do so, they formed Achieve as an independent, bi-partisan, non-profit education reform organization. To this day, Achieve remains the only education reform organization led by a Board of Directors of governors and business leaders. This unique perspective has enabled Achieve to set a bold and visionary agenda over the past 15 years, leading Education Week in 2006 to rank Achieve as one of the most influential education policy organizations in the nation. “(21)
Ces deux “visionnaires” ont reçu commande de l’OCDE après qu’a été fixé le cadre de ce qu’il fallait évaluer. Pour ce faire, un panel d’experts en diverses disciplines a été invité à remettre un avis sur les problématiques posées au sein du groupe de travail DESECO (Définir et Sélectionner les Compétences-clés), groupe constitué dans le but de produire les définitions de ce que PISA allait chercher à évaluer, dans le cadre d’un symposium en 99 à Neuchâtel.
“The international symposium will be an opportunity to reflect on the first three activities of the DeSeCo Program. The first was an analysis of past indicator development in the domain of competencies within the OECD context. The second was an examination of existing notions from different perspectives such as philosophy, sociology, economics, anthropology and psychology as well as an analysis of existing theoretical approaches to concepts of competence. The third and largest activity is the identification and definition of theoretically-based sets of relevant competencies. “(22)
En 1997, les ministres de l’éducation des pays de l’OCDE avaient décidé de lancer un nouveau cycle d’évaluation des systèmes scolaires, et le programme DESECO a pour but de créer le cadre conceptuel de l’enquête et de définir un cadre de discussion intergouvernemental de référence pour les politiques scolaires. DESECO cherchant à accorder exigences gouvernementales et avis des experts doit apporter une réponse aux questions que pose le test PISA, qu’est-ce qu’il évalue et qu’est-ce qu’il doit évaluer ?
Parmi les contributions préparatoires à ce symposium de 99, figure celle du célèbre anthropologue Jack Goody –
Education and Competences, An Anthropological Perspective, St John’s College, Cambridge– nettement plus intéressante que celle de Canto-Sperber (23), la néolibérale qui a sévi à la direction de l’ENS. Son avis est particulièrement intéressant dans la mesure où il s’agit d’une fin de non-recevoir catégorique à l’idée même qui préside à la conception de PISA.
Les questions posées au panel d’experts étaient les suivantes :
1.Qu’entend t-on par compétence, compétence clé, et “skills”? Bien que ces termes soient devenus très courants dans les domaines scientifiques et politiques, des significations différentes et des usages flous ont conduit à beaucoup de confusion. Une terminologie commune est donc requise pour communiquer dans un contexte interdisciplinaire et international.
2. Quelle conception sur la nature de l’homme et de la société peut servir de point de départ à l’identification des compétences importantes dont ont besoin les individus pour conduire une vie réussie et responsable dans une société démocratique moderne, et pour la société pour faire face aux défis d’un monde changeant souvent en conflit? Quels sont les critères normatifs sous-jacents pour définir les compétences? Y a t’il un dénominateur commun parmi les différents points de vue sur le sujet ?
3. Dans quelle mesure est-il possible d’arriver à une identification des compétences clés indépendament de la culture, de l’âge, du genre, du statut, de l’activité proffessionnelle? Comment ces facteurs affectent-ils la conceptualisation des compétences clés ?
4.Quelles compétences sont nécessaires pour agir dans les différents domaines de la vie – économique, politique, sociale et familiale; les relations interpersonnelles publiques et privées; le développement de la personnalité individuelle? Comment ces compétences peuvent-elles être décrites et justifiées théoriquement ?
5. Est-ce que les compétences opèrent indépendament ou en interdépendance? Comment se relient-elles ?
6. Quelle est l’importance de ces notions pour les décideurs politiques…? Quel est le rôle des institutions sociales pour le transfert des compétences à la population? Quelles sont les démarches potentielles pour rendre les compétences opérationnelles?”(24)
Il n’est pas nécessaire d’être anthropologue pour comprendre que l’idée de compétence que DESECO cherche à promouvoir et définir, abstraite de son milieu socioculturel est une absurdité, mais il fut le seul à refuser d’emblée les questions du projet DESECO : selon lui, il ne pouvait être question de s’engager dans une discussion sur des “compétences clés” décontextualisées, parce qu’on ne peut pas identifier des compétences de manière isolée, indépendamment d’un contexte particulier et de pratiques spécifiques. Pour un anthropologue confronté à la diversité des modes de construction de l’humain, c’est une évidence qu’il ne saurait être question de définir des compétences dans un cadre général qui dépasse les cultures, les contextes sociaux et les réseaux territorialisés dans lesquels se construisent et œuvrent les personnes. Il estime impossible de définir des compétences à un niveau de généralité réclamé par la construction de mesures.
En effet, c’est le principe même qui guide la construction de la catégorie de compétence que DESECO cherche à rendre “acceptable” par les systèmes éducatifs, celui d’une mise en équivalence, qui est absurde. Absurde pour nous, peut-être mais pas pour tout le monde ! DESECO ne fait que révéler les conditions de fonctionnement de la société de l’économie de la connaissance que les élites capitalistes appellent de leurs voeux.
Avant même que les experts invités apportent leurs problématisations sur ce que l’on peut entendre par compétence, une définition, celle qui apparait dans les questions de DESECO, est déjà retenue dans les pays de l’OCDE pour servir de nouveau paradigme aux systèmes de formation, c’est :
Une capacité générique et transférable de mobilisation de ressources pour agir efficacement.
Mais d’où vient cette définition ? Comment a-t-elle été négociée ? Pourquoi devient-elle centrale ? Qu’est-ce qu’elle implique ? Quel genre d’individus cherche t-elle à façonner, à promouvoir?
L’objectif était de mettre en cohérence, d’harmoniser, tracer des perspectives pour les systèmes éducatifs en vue de leur ajustement aux nouvelles contraintes économiques, et d’apporter une justification et un fondement théorique notament pour PISA. le rôle de l’expertise et la place des scientifiques sont définis dans un cadre très précis. Ils ne sont pas convoqués pour contribuer à l’élucidation d’un problème, mais pour proposer des réponses plausibles à des questions déjà formulées. La définition de la compétence est supposée acquise, les compétences existent, l’entreprise les exige, il faut désormais un travail d’explicitation et de justification, une opération de négociation pour en faire une transposition en propositions générales acceptables par le public.
“Définir et sélectionner une liste valable et légitime de compétences clés est en fin de compte le résultat d’un processus d’analyse, de discussion et – éventuellement – de consensus qui peut se présenter dans le domaine politique où les chercheurs travaillent en partenariat étroit avec d’autres groupes d’intérêt.”(25)
Sachant que
“l’impulsion majeure dans les pays de l’OCDE pour le modèle compétence vient des secteurs patronaux.”(26) il doit être clair que pour les experts “
définir les compétences n’est pas seulement le résultat d’une analyse scientifique mais aussi d’un processus de négociation politique”.
Il n’a pas échappé aux participants que l’usage de plus en plus fréquent de la notion de compétence dans de multiples situations, emploi, conseil, recrutement, formation, recherche, s’accompagne des définitions les plus diverses. Principalement en formation, on rencontre des caractérisations différentes de la notion, attachées nécessairement à des contextes de mise en visibilité différents.
Pour les décideurs politiques, il s’agit de prendre acte d’un usage majoritaire effectif :
“il faut reconnaître qu’en sciences sociales il n’y a pas d’usage unitaire du concept de compétence, pas de définition commune et pas de théorie unifiée”. “En fait, la signification du terme varie largement selon la perspective scientifique et selon le point de vue idéologique et selon les objectifs sous-jacents à son usage. Et cela, aussi bien sur le plan scientifique que sur le plan politique.” “c’est pourquoi DESECO adopte une position pragmatique, limitant l’usage du concept à des critères plus ou moins explicites, plausibles et scientifiquement acceptables” (27).
Tout ça pour quoi ?
Le rôle du test n’est pas d’évaluer une chose qui existe, mais de donner un semblant de consistance à quelque chose qui n’existe pas. Il n’est pas de vérifier des compétences mais de les faire exister.
Les objections soulevées par Goody, que la compétence ne saurait constituer une réalité indépendante, ni générique, ni transférable, s’attaquent à ce qui est justement à ce qui est le coeur de PISA : le modèle qui opère un recadrage des activités sous contrôle capitaliste pour les définir comme simples ressources mobilisables dans différents contextes productifs. Ce qui implique une redéfinition de ce qu’il s’agit de capturer: la compétence doit être une capacité interne à l’individu, sa réalisation doit renvoyer à une causalité interne.
Dans le test d’évaluation, à partir d’un résultat, c’est-à-dire d’une réponse relative à la spécificité d’une interrogation, supposition est faite d’une cause interne qui serait seule à expliquer ce résultat. Ce rabattement sur une causalité interne, une capacité qui ne devrait qu’à elle-même, a pour but de penser son instrumentalisation, de la mettre en relation avec toutes sortes de milieux auxquels elle s’appliquerait indifféremment. Quelles que soient les données qu’on lui fournit, elle va opérer le même type de traitement. Elle doit être une réalité générique, relativement semblable chez tous ceux qui la manifestent, sorte de structure commune standard, ce qui permet d’effacer la question de la variété des apprentissages, et ne plus prendre en considération que la variation au sein de procédures qui ne diffèrent que statistiquement.
Les outils de la catastrophe
Peut-être faut-il ranger PISA au nombre de tous ces instruments de la guerre économique que le capitalisme livre sur le champ de bataille de la planète ? La mesure et le classement prolifèrent dans des dispositifs d’évaluation, de la Banque Mondiale, l’ONU, le forum de Davos, les agences de notation, avec les mêmes critères fiables qui félicitent la “bonne santé économique” de pays qui quelques temps plus tard subissent le contre-coup catastrophique des “bons traitements” imposés par ces dispositifs d’évaluation, comme en Irlande, en Islande.
Comme dans toute évaluation, le rôle du test n’est pas de mesurer mais de normaliser. Le but n’est pas de vérifier des acquis, PISA se fout totalement de ce dont les jeunes sont capables, dans tel milieu, avec tels moyens, telles potentialités. PISA n’a pas pour but de mesurer mais d’inciter, d’envahir, de conformer, de monopoliser, de modéliser. Son rôle prescriptif très fort concerne la reformulation des programmes scolaires sur une logique de compétence, vise à favoriser une harmonisation (c’est le nom que l’on a donné en Suisse à l’uniformisation des cursus : Harmos), une standardisation par le référencement en listes de compétences qui prolifèrent dans des outils qui envahissent les cursus de la maternelle à l’université.
PISA est un instrument d’objectivation de l’homogénéisation que la comparaison cherche à imposer. PISA cherche à produire quelque chose qui n’existe pas! L’équivalence. Le sacro-saint moteur de la dynamique capitaliste.
L’idée même d’instaurer une commensurabilité sur la multiplicité hétérogène des différences culturelles, sociales, éthiques, éducatives est une contradiction insoluble, mais la maitrise, le contrôle, la capture sont à ce prix.
Si PISA n’a aucune “valeur scientifique”, c’est bien parce qu’il s’agit d’un dispositif de pouvoir, non pas réglé sur une logique épistémique de vérité mais sur une contrainte normative de productivité ; non pas d’efficacité mais de performativité, à tout prix, quelles qu’en soient les conséquences.
Quand à la France qui prévoit la ré-écriture des programmes scolaires, on n’a pas vu l’ombre du bout de la queue d’une esquisse de questionnement sur ces orientations.
Didier Muguet. 17/11/2013
Notes
1. Pierre Champollion et Angela Barthes,
« De l’usage et du mésusage du classement par rang en matière de médiatisation de l’évaluation internationale PISA », Questions Vives [En ligne], Vol.6 n°16 | 2012,
1. http://www.scienceshumaines.com/ecole-des-evaluations-qui-fachent_fr_23282.html
2.http://www.brunosuchaut.fr/IMG/pdf/Pisa_notes.pdf
3.http://www.iiep.unesco.org/fr/news/actualites-fiche.html?tx_ttnews[tt_news]=839
4. Pierre-Louis Gauthier,
« L’éducation en Corée du Sud, laboratoire du néo-libéralisme », Revue internationale d’éducation de Sèvres , septembre 2002.
5. Sur les dégâts de cette omniprésente “compétition”, voir : http://www.youtube.com/watch?v=Kn4HRDBSuTw
6.http://www.courrierinternational.com/article/2012/04/04/la-reussite-scolaire-a-tout-prix-non-merci
7. voir par ex. Martine Bulard: Samsung ou l’empire de la peur, Monde Diplomatique, juillet 2013.
8. Entretien sur le site des “cahiers pédagogiques”, http://www.cahiers-pedagogiques.com/L-elitisme-republicain-L-ecole-francaise-a-l-epreuve-des-comparaisons-internationales
9. “Les Items libérés de mathématique”, OCDE, DEPP.
10.Daniel Bain le faisait déjà remarquer
“les comparaisons internationales restent proches d’un modèle behavioriste”.
11. Daniel Bain :
Pisa et la lecture: un point de vue de didacticien . Analyse critique de la validité didactique d’une enquête internationale sur la compréhension de l’écrit , Revue suisse des sciences de l’éducation, 25 (1) 2003 , p.62-63. Tout son article mérite une lecture attentive car il décortique avec grande pertinence les paradoxes, fausses pistes, dangers, du test PISA. Comme il le dit avec humour:
“On peut donc souhaiter qu’avant d’administrer des remèdes de cheval ou à large bande au système de formation, qu’avant d’essayer d’importer des recettes de Finlande ou d’ailleurs, on fasse dans nos écoles une étude plus clinique de la situation, de l’enseignement-apprentissage initial et continué de la lecture. Pour cela, il sera notamment nécessaire de solliciter la collaboration active des enseignants et des formateurs, d’analyser avec eux ce qui se fait – ou ne se fait pas – dans les classes en matière de lecture. “
12. voir les travaux de l’AFL.
13.
“Performances en littéracie, modes de faire et univers mobilisés par les élèves. analyses secondaires de l’enquête PISA 2000 “,Élisabeth Bautier, Jacques Crinon, Patrick Rayou, Jean-Yves Rochex . Revue française de pédagogie, n° 157, octobre-novembre-décembre 2006 .
14. Cadre d’évaluation et d’analyse du cycle PISA 2012 ,
15. http://nces.ed.gov/surveys/pisa/pdf/items2_science.pdf
16.
“La culture scientifique, pourquoi faire ?” , Jean-Marc Lévy-Leblond , Professeur émérite à l’Université de Nice-Sophia Antipolis , intervention au colloque du 24/11/2011 à Lille1 ” « Peut-on parler de culture scientifique ? »
17. (http://www.crdp-montpellier.fr/espace_sciences/seminairesciences.pdf)
18. le tribunal correctionnel de Termonde a condamné la chercheuse Barbara Van Dyck à six mois de prison ferme et à une amende de 550 euros. Motif:
“destructions, coups et blessures et formation de bande”, tout ça pour 20 patates déterrées! la controverse disparaissant du terrain scientifique réapparait sur le terrain politique, sauf que la sanction récompense l’objection! Mais enfin, Jean Valjean écopa du bagne pour un pain, Barbara, six mois pour des patates, la justice se ramollit!
19.
« Gènes, pouvoirs et profits : Recherche publique et régimes de production des savoirs de Mendel aux OGM », Christophe Bonneuil et Frédéric Thomas, éd. QUAE / FPH, octobre 2009, 620 p.
20. Recommandation de l’assemblée parlementaire du Conseil de l’Europe:
“la participation des enfants aux décisions qui les concernent”. http://assembly.coe.int/Mainf.asp?link=/Documents/AdoptedText/ta09/FREC1864.htm
21.voir le site “achieve.org”
22.http://www.deseco.admin.ch/bfs/deseco/en/index/04.parsys.21201.downloadList.54559.DownloadFile.tmp/1999.backgroundnote.pdf
23. Monique Canto-Sperber, Jean-Pierre Dupuy , Competencies for the Good Life and the Good Society, A Philosophical Perspective, GRISE, Ecole Polytechnique, Paris
24. Definition and Selection of Competencies, DeSeCo symposium, Neufchâtel, october 13-15 1999, Background Notes, p.2
25.INES GENERAL ASSEMBLY 2000 , A Contribution of the OECD Program Definition and Selection of Competencies: Theoretical and Conceptual Foundations , p 5.
26. idem, p.5
27. INES, Assemblée générale, 2000, p.8
Documents joints
Pisa, un fétiche utile à quoi ?
C’est vrai que le texte est long, mais c’est un vrai document (documenté !) qui vaut la peine de prendre le temps de le lire. Merci à l’auteur de nous faire le don d’un tel travail.
Je l’épluche plus à fond avant de donner mon sentiment.
Pisa, un fétiche utile à quoi ?
Très intéressant…
J’aimerais toutefois qu’on s’entende sur le statut de ce texte riche et documenté. Qu’il faille être vigilant sur les usages politiques des résultats de PISA et réclamer une amélioration de cet outil de mesure, cet article a le grand mérite de nous le rappeler. Mais jusqu’ici, l’essentiel des contestations de PISA que j’ai croisées servaient à contester la volonté de changement qui accompagnait bien souvent l’invocation des résultats de cette enquête. Soit parce que ces changements étaient (forcément) ultralibéraux ou “pédagogistes”, ou les deux.
Bref, il ne faudrait pas que la critique légitime et nécessaire de PISA serve à conforter l’immobilisme et le discours du “tout va très bien, Madame la marquise, il suffirait de réduire le nombre d’élèves par classe et les quelques problèmes résiduels se résoudraient d’eux-mêmes”.
L’école française est malade, et les résultats de PISA, malgré leurs insuffisances, sont un des indicateurs de ces problèmes. Prendre prétexte des biais qui les sous-tendent pour ne pas daigner les considérer (attitude de bien des représentants de syndicats de ma connaissance, et pas seulement dans le syndicat majoritaire…) est au mieux, une forme de politique de l’autruche, au pire, une marque de conservatisme honteux.
Je propose que la prochaine étude critique sur PISA consiste à faire la liste des enseignements positifs que l’on peut tirer de cette enquête, malgré ses insuffisances. Allez, j’en lance deux, qui m’ont semblé intéressants et qui me semblent moins contestables que le palmarès bien connu qui n’a guère d’intérêt : par le passé, les enquêtes PISA ont montré que la France faisait partie des trois pays où les résultats aux tests étaient les plus déterminés par l’origine sociale des candidats mais aussi que c’est le pays où les élèves étaient les plus stressés (à mettre en parallèle avec le fait mis en évidence par d’autres enquêtes que c’est aussi le pays où les jeunes aiment le moins aller à l’école).
1 – Que pensons-nous de ces constats?
2 – Qu’est-ce qu’on propose pour résoudre ces problèmes ?
Exploiter un instrument conçu comme une machine de guerre ultralibérale pour changer les choses dans le sens que nous souhaitons, est-ce que ce ne serait pas un formidable détournement ?
Pisa, un fétiche utile à quoi ?
Je suis tout à fait d’accord avec toi sur le détournement qui peut être fait de PISA. Il m’est bien utile quand j’aborde l’école avec un public lambda, à condition que je précise comme le fait Didier les conséquences d’une tête de classement coréenne. C’est juste utile pour faire admettre que les retours en arrière des Fillon aux Chatel (dans le sens coréen) n’ont fait qu’accentuer la régression au classement. Merci PISA !
Le problème, c’est que nous nous heurtons chaque fois aux représentations et aux croyances aux “données objectives”. Je pars donc de celles-ci quand elles nous sont favorables : HEUREUSEMENT QUE LA FRANCE N’EST PAS EN TETE DE PISA ! C’est la seule petite chance pour insuffler dans le plus grand nombre de têtes l’idée qu’il va falloir se les retourner (les têtes !) pour inventer une autre école, pour une autre finalité. Notre problème n’est pas la conception entre nous de cette autre école, c’est celui de l’opinion publique qui doit abandonner les représentations sur lesquelles elle se fonde.
Je sais bien que c’est à double tranchant puisqu’en même temps il faut démolir l’outil soi disant objectif qui aura pu nous permettre d’enclencher une remise en question. Il me semble que cela sera possible si nous arrivons à focaliser sur la finalité. Là encore, merci PISA et les coréens !
Pisa, un fétiche utile à quoi ?
Oui, j’étais arrivée à la même conclusion que l’article après avoir lu “La stratégie de l’OCDE sur les compétences”(2011).
Le plan d’action de la Stratégie de l’OCDE sur les compétence. Je ne résiste pas au plaisir de les partager avec vous :
“Au cours des deux prochaines années, le Programme international pour le suivi des acquis des élèves (PISA) et
le Programme international pour l’évaluation des compétences des adultes (PIAAC) permettront de recueillir
et d’analyser des données mesurant les compétences. L’OCDE va également collecter des données de base sur
l’emploi, les salaires et les compétences recherchées par les employeurs, élaborer des prévisions sectorielles de
la demande et de l’offre de compétences, et évaluer les politiques de l’éducation et de l’emploi existantes afin
d’en surveiller l’efficacité. Avec ces informations, l’OCDE va étudier des problématiques telles que la valeur des
compétences professionnelles spécifiques par rapport aux compétences élémentaires et générales, le degré et
l’incidence de l’inadéquation entre les compétences disponibles et celles que le marché du travail demande, ainsi
que la nécessité d’améliorer les compétences des chômeurs afin qu’ils trouvent plus facilement un nouvel emploi.”
Suivent les descriptions respectives de PISA et de PIAAC puis, enfin, la conclusion :
“L’objectif est de mettre au point une approche intersectorielle en vue de formuler et de mettre en œuvre des actions
efficaces dans le domaine des compétences, en faisant intervenir les ministères de l’éducation, de l’immigration,
de la famille, des sciences et technologies et de l’emploi. Les syndicats, les associations patronales, les chambres
de commerce, les organisations non gouvernementales, les universités et d’autres groupes intéressés seront
également mis à contribution. Le résultat final servira de modèle pour élaborer et appliquer des mesures tirant
le meilleur parti possible du capital humain de chaque pays, en favorisant le développement des compétences
de ses citoyens – et en les utilisant – afin de renforcer la croissance économique et la cohésion sociale.”
Qu’ajouter de plus ? L’enquête est conçue dans le but de fédérer des “groupe intéressés” très divers afin qu’ils contribuent à la mettre en place les compétences “tirant le meilleur parti possible du capital humain”.
J’assiste et, je le suppose, nous assistons tous, dans les diverses réunions et formations liées à l’Education Nationale, à une mise en avant de données chiffrées qui nous sont balancées absolument -comme le souligne fort bien l’article- telles des paroles divines qui pétrifient toute volonté et faculté d’analyse.
Merci, donc, de nous avoir rappelé ici la signification et les limites de ces chiffres.
Pisa, un fétiche utile à quoi ?
visiblement certains interviennent non pas pour faire le commentaire d’un texte qu’ils n’ont pas lu mais uniquement
pour faire une propagande niaise pour une opinion dont j’ai montré toute l’inanité!
mon texte est une longue analyse de la construction, des postulats et effets du test et absolument pas un principe de précaution
quand aux usages; encore moins
“Qu’il faille être vigilant sur les usages politiques des résultats de PISA et réclamer une amélioration de cet outil de mesure, cet article a le grand mérite de nous le rappeler”
Comme l’avait très bien suggéré Elisabeth Chatel dans sa thèse sur “les conventions de mesure en éducation”, c’est bien la mesure comme imposition d’un champ de comparabilité homogène sur une multiplicité hétérogène qu’il convient d’interroger comme dispositif de pouvoir!
Comme le disait notre soeur féministe bell hooks ” on ne détruit pas la maison du maitre avec les outils du maitre!”
Pisa, un fétiche utile à quoi ?
” « on ne détruit pas la maison du maitre avec les outils du maitre ! »
Oui, mais dans un combat on a intérêt à connaître les armes des adversaires pour éventuellement les retourner contre eux ! Ce n’est pas forcément niais, surtout quand on est moins armé ! Ton analyse permet justement de ne pas être naïf (ou niais !) et de nous en servir autrement que ce pourquoi PISA a été conçu, quand on sait pourquoi il a été conçu. Il faut séparer ce qui n’est que stratégie ou moyen dans une situation de combat.
Je peux prendre un autre exemple : dans le combat pour les classes uniques (oui, je sais, je suis un “ancien combattant” !), je me suis bien servi des travaux sur l’évaluation de Oeuvrard alors que par ailleurs je m’élevais contre l’évaluation et en démontais les objectifs.
Pisa, un fétiche utile à quoi ?
Bonjour,
merci beaucoup à Didier Muguet pour cet article fort intéressant et tout à fait bienvenu.
Je me permets de signaler ici un ouvrage de Fred Dervin qui interroge le mythe de l’école finlandaise construit via PISA (La meilleure éducation au monde ? paru chez L’Harmattan) ainsi qu’un article sur la culture scientifique testée dans PISA (ici) et un autre sur la notion de littératie que véhicule cette enquête (à paraître en janvier 2014 là).
Bonne soirée,
Juan
Pisa, un fétiche utile à quoi ?
Ce message s’adresse à l’auteur de l’article.
Rédactrice en chef de la revue syndicale du SIA (syndicat des Inspecteurs d’académie), je souhaiterais savoir s’il m’autorise à publier cet article (tout ou partie) dans notre revue ? Merci
Michèle VINEL – Inspectrice d’académie-Inspectrice pédagogique régionale.
http://syndicat-ia.fr
Pisa, un fétiche utile à quoi ?
Un de vos amis a signalé cet article sur mon blog : http://pedrocordoba.blog.lemonde.fr/
Voici ce qu’il a écrit :
j’ai lu cet excellent texte de « déconstruction » du dispositif PISA sur le site
Question de Classe:
« PISA, un fétiche utile à quoi? », la meilleure analyse publiée à ce jour!
http://www.questionsdeclasses.org/?Pisa-un-fetiche-utile-a-quoi#comment977
Et voici ce que je lui ai répondu :
Abonné à « Questions de classe », j’avais déjà lu ce texte. Mais il est bon de le signaler à tous ceux qui passent par ici, merci pour eux. Pour l’intuition que je peux en avoir, sans connaître personnellement les animateurs du site, il y a dans « Questions de classe » un côté anar et sans-culotte qui n’est pas pour me déplaire. C’est d’autant plus important que la tendance très dominante dans la « gauche pédagogique » est, au contraire, de collaborer en toute inconscience avec les nouveaux maîtres du monde, tenants du néolibéralisme éducatif. Le sujet des « compétences » est à cet égard crucial. C’est ainsi que tout à leur haine d’une « école républicaine » disparue depuis bien longtemps, le Café pédagogique et les Cahiers pédagogiques, n’ont de cesse de faire prévaloir les compétences sur les savoirs, s’imaginant qu’ils oeuvrent pour l’émancipation alors qu’ils prennent parti pour une école de l’employabilité, c’est-à-dire pour les nouvelles formes de servitude.
Cela dit, l’article de Didier Muguet consiste pour l’essentiel en une critique « externe » de PISA. Il s’agit pour lui de contester toute validité à une enquête dont les critères sont aux antipodes de ce que doit être une école de l’émancipation par le savoir. Il tire sur PISA au bazooka. Ma propre démarche emprunte plutôt la voie de la « critique interne » : il s’agit de montrer que les politiques inspirées par PISA produisent des résultats négatifs par rapport aux critères mêmes de PISA. D’une certaine façon, j’ai choisi la voie humoristique, celle qui définit par exemple la grève du zèle : il suffit de respecter les consignes de l’ennemi (de classe) pour aboutir à sa déconfiture. Au bout du compte nos deux approches sont à mon avis complémentaires.
Reste que je suis en désaccord sur la Corée ou, plus exactement, sur le modèle asiatique (dont la Corée accentue sans doute une dérive possible mais qu’il ne faudrait pas réduire à une caricature). Mais je m’en expliquerai plus tard quand j’en aurai fini avec la question des sans-diplômes.
Quelques uns de mes billets sur PISA et autres évaluations internationales :
http://pedrocordoba.blog.lemonde.fr/2012/12/12/le-pirls-nouveau-est-arrive/
http://pedrocordoba.blog.lemonde.fr/2012/12/27/pisapirlstimss-competences-et-connaissances-1/
http://pedrocordoba.blog.lemonde.fr/2013/01/09/pirls-timss-pisa-connaissances-et-competences-2/
http://pedrocordoba.blog.lemonde.fr/2013/01/25/pisa-pirls-timss-competences-et-connaissances-3/
http://pedrocordoba.blog.lemonde.fr/2012/11/12/non-disputemus-sed-calculemus/
http://pedrocordoba.blog.lemonde.fr/2012/11/29/la-finlandisation-de-la-finlande/
http://pedrocordoba.blog.lemonde.fr/2013/02/23/la-finlande-au-tableau-noir/
http://pedrocordoba.blog.lemonde.fr/2013/04/03/les-vertus-germaniques/
Pisa, un fétiche utile à quoi ?
Didier Muguet a écrit une grosse bêtise : “la Corée du sud est aussi le n°1 pour un autre palmarès : celui du nombre de suicides de jeunes”
Je suis allé vérifier les faits. En Corée, le taux de suicide pour 100.000 personnes de 10-24 ans est de 9,4 en 2010. Pour la même année, le taux de suicide des adolescents français est de l’ordre 14,7 pour 100.000 habitants en 2010. Autrement dit, les adolescents français se suicident plus que les coréens.
Source : http://www.rfi.fr/afrique/20120909-le-suicide-fait-plus-victimes-guerres-homicides-ajoutes
http://french.yonhapnews.co.kr/news/2013/09/10/0200000000AFR20130910000600884.HTML?from=yna_kr
Pisa, un fétiche utile à quoi ?
“Je suis allé vérifier les faits “, ose écrire l’ingénu nicolas!
Quelle naïveté! Exhiber des chiffres et les confondre avec des faits!
Mais les faits sont faits, fabriqués, comme disait Latour! c’est exactement le
même problème que pour PISA! Des chiffres “objectifs” sont avancés et
l’on ne va surtout pas s’interroger sur leur mode de production.
Pour ma part j’ai pris mes “renseignements” sur le site infosuicide.org:
SEOUL, 23 sept.2013 (Yonhap) — Plus de 7% des élèves du primaire, collège et lycée auraient besoin d’une aide psychologique en raison de troubles émotionnels et comportementaux, dont 2,2% ont avoué avoir des pensées suicidaires, selon les résultats d’un sondage mené par le ministère de l’Education entre mai et juillet de cette année.
En se basant sur une enquête menée auprès de 2,12 millions enfants scolarisés entre 6 et 18 ans, le ministère a révélé que 7,2% des sondés, soit 152.640 élèves, présentaient des troubles psychologiques et donc avaient besoin d’aides professionnelles d’ordre thérapeutique.
Par ailleurs, 46.104 élèves, soit 2,2% des sondés, ont répondu avoir des pensées suicidaires et représentent donc une priorité au sein de la longue liste des patients attendant une prise en charge médicale.
Les collégiens représentent la part la plus importante des deux catégories formées par le ministère, en raison de la fragilité émotionnelle exacerbée de cette tranche d’âge.
Ces résultats se joignent aux données publiées par la Fondation coréenne pour la promotion de la santé (KHPF) au début du mois de septembre, qui ont montré un taux de suicide chez les adolescents en hausse de 57% entre 2001 et 2011, contre une augmentation de 50,5% chez les adultes sur la même période.
Ces chiffres en nette augmentation ont amené le ministère à annoncer des mesures pour la mise en place de sessions d’aide psychologique plus intensives, comme l’organisation de thérapies spécialisées, et d’un suivi à proximité des zones d’habitation pour les adolescents ayant exprimé des tendances suicidaires.
claire@yna.co.kr
……………….
SEOUL, 10 sept. 2013 (Yonhap) — L’augmentation du nombre de suicides chez les adolescents coréens est plus rapide que chez les adultes et plus brutale par rapport à la moyenne des pays membres de l’Organisation de coopération et de développement économiques (OCDE), indiquant que des mesures sont nécessaires, a noté ce mardi la Fondation coréenne pour la promotion de la santé (KHPF).
En cette Journée mondiale de prévention du suicide, a été publié un rapport de l’Institut national des statistiques (KOSTAT) montrant qu’au sein de la population âgée de 10 à 19 ans, le nombre de suicides pour 100.000 de ces jeunes est passé de 3,19 en 2001 à 5,58 en 2011, soit une montée en flèche de 57,2%. Durant cette même période, le taux de suicide pour 100.000 personnes parmi les 20-64 ans a bondi de 16,96 à 33,58, correspondant à une progression de 50,5%.
Alors que les suicides des jeunes ont tendance à diminuer dans les pays membres de l’OCDE, ils ont fortement augmenté en Corée. En effet, la moyenne des suicides pour 100.000 personnes de 10-24 ans pour l’ensemble des 31 pays de l’OCDE a baissé de 7,7 en 2000 à 6,5 en 2010. Concernant la même tranche d’âge en Corée, le taux a grimpé de 6,4 à 9,4, soit un saut de 47%, pour passer de la 18e à la 5e place. En termes de progression, le pays est deuxième, juste derrière le Chili (53%).
………….
La Corée du Sud met en place des mesures anti-suicide
Publié le: 26/07/2013 sur http://world.kbs.co.kr/french/news/news_Dm_detail.htm?No=40234
La Corée du Sud s’apprête à prendre une série de mesures visant à prévenir les suicides, alors qu’elle détient le triste record du plus fort taux de suicide parmi les pays de l’Organisation de coopération et de développement économiques (OCDE). En effet, le chiffre est alarmant. Le taux est de 33,3 personnes pour 100 000 habitants en 2012, ce qui est nettement supérieur à la moyenne de 12,6 des pays industrialisés.
………….
Dans le tableau : http://www.oecd.org/social/family/CO4_4_Teenage_Suicide_Jan2013.pdf, on voit que la Corée dépassait déjà la France en 2009!
Comme l’écrit le Ministère de la Santé “Néanmoins les comparaisons internationales doivent être interprétées avec prudence, du fait de différences éventuelles dans la qualité et l’exhaustivité des déclarations et des différentes pratiques et procédures en matière d’investigations, d’enregistrements et de codage des décès.”
Ce qui est à remarquer ici, c’est la cause principale des suicides, différente en corée et en france!
Et sur Eurostat – http://epp.eurostat.ec.europa.eu/tgm/table.do?tab=table&init=1&language=fr&pcode=tsdph240&plugin=0
on nous donne pour la tranche 15-19 ans qui m’intéresse le taux de 4,7 pour 100 000 en 2010 en france!
Pisa, un fétiche utile à quoi ?
Je pense que vous avez compris le sens de mon intervention, il s’agit de critiquer le texte que vous avez écrit. A savoir critiquer un système éducatif en exhibant son taux de suicide. Faire le lien entre le taux de suicide et le système éducatif, c’est osé ! Le pire, c’est de nous imposer des préjugés . Il y a quelques années, on attaquait les classes préparatoires avec les mêmes arguments : “les prépas fabriquent des suicidés en puissance, les profs sont trop sévères avec les élèves”.
Mais en plus, il y a des erreurs. Et l’erreur se situe sur les chiffres : il y a plus d’adolescents français suicidaires que coréens ! Figurez-vous que je suis allé voir le site d’infosuicide. Et qu’est-ce que je lis ?
“Autre idée reçue : le Japon serait le pays où l’on se suicide le plus. En réalité, avec un taux de suicide de 26 pour 100 000 habitants, le Japon se situe au 8e rang mondial et est largement devancé par de nombreux pays d’Europe comme la Lituanie (38,8), la Russie (32,3) ou encore la Finlande (28). A noter d’ailleurs que les adolescents français se suicident plus que les japonais. Le Japon demeure néanmoins un des pays industrialisés où le taux de suicide est le plus élevé”.
Le lien est ici : http://blogdinfosuicide.blogspot.fr/2012/09/revue-de-presse-journee-mondiale.html .
Le taux que vous nous donnez concerne les adolescents de 15 à 19 ans, on le retrouve ici : http://www.oecd.org/els/family/48968307.pdf . D’ailleurs en Finlande le taux de suicide des adolescents est trois fois supérieur au nôtre, alors que leur système éducatif est sensé moins sévère que nous. Donc exhiber le taux de suicide pour critiquer le caractère “hard” d’un système éducatif ne veut rien dire ! Par contre si on prend la tranche d’âge 10-24 ans, les choses changent et il y a plus de suicides français que la Corée.
Les enfants sont stressés lorsque le cadre est flou. Ce qui est le cas avec l’enseignement à la françaises. En Corée ou au Japon, le cadre scolaire est certes extrêmement exigent mais très clair. Du coup les élèves y trouvent bien plus aisément un équilibre. De plus contrairement à notre éducation où nous voulons le beurre et l’argent du beurre immédiatement sans effort, eux savent qu’avoir les meilleurs résultats leur permettront d’accéder aux meilleurs formations. Formations supérieures aux rythmes bien moins soutenus que celui du cycle secondaire leur permettant même de glander. Donc ils savent bien que l’effort de quelques années qui leur est demandé est nécessaire pour être plus libre par la suite.
Ici un interview d’une élève japonaise qui compare le système japonais et français : http://www.piefrance.com/trois-quatorze/reportages/esprit-francais-ame-japonaise/ , ça donne une idée et ça évite d’écrire des inepties sur des systèmes qu’on ne connaît pas….
Pisa, un fétiche utile à quoi ?
En fait, je comprends mieux le sens de votre “irritation”! c’est toute l’analyse qui vous dérange et vous n’avez pas su comment attaquer le morceau! Vous avez pris trois lignes du texte et décidé d’en faire l’unique sujet de toute mon argumentation. Alors vous vous êtes focalisé sur un détail, effet consécutif à un système social et éducatif, et cette synecdoque fantaisiste vous suffit pour faire office d’alibi à une argumentation défaillante. Mon propos n’est absolument pas de “critiquer un système éducatif en exhibant son taux de suicide. “, mais de déconstruire les procédures normatives des sociétés de contrôle pour produire des individualités assujetties standardisées, et principalement l’évaluation. Mais ça, vous ne l’avez pas remarqué!
Quand aux suicides en Corée du sud, il s’agit d’un “fait social” massivement dû aux contraintes autoritaires et conformistes d’un système qui fait encore plus de ravages dans le monde du travail, comme le rapporte Martine Bulard.
Non! Les étudiants en corée ne vont pas bien! ce sont eux qui l’écrivent, le crient:
http://fr.globalvoicesonline.org/2013/12/23/158704/
Quand aux chiffres, vous écrivez : “Mais en plus, il y a des erreurs. Et l’erreur se situe sur les chiffres : il y a plus d’adolescents français suicidaires que coréens ! Figurez-vous que je suis allé voir le site d’infosuicide. Et qu’est-ce que je lis ? « Autre idée reçue : le Japon serait le pays où l’on se suicide le plus. En réalité, avec un taux de suicide de 26 pour 100 000 habitants, le Japon se situe au 8e rang mondial et est largement devancé par de nombreux pays d’Europe comme la Lituanie (38,8), la Russie (32,3) ou encore la Finlande (28). A noter d’ailleurs que les adolescents français se suicident plus que les japonais. Le Japon demeure néanmoins un des pays industrialisés où le taux de suicide est le plus élevé ».
Est-ce que la corée du sud est mentionnée dans cette phrase? Non!
parce qu’il y a une autre donnée qui casse votre baraque pourrie:
“Un grave problème de santé publique
Dans un rapport au Parlement rendu public le 3 octobre 2010 avant une audition parlementaire, le ministère de la Santé et de la protection sociale sud-coréen a fait apparaître une nouvelle hausse des suicides dans le pays : avec un taux de 31 pour 100.000 personnes, le suicide est devenu la quatrième cause de mortalité en Corée du Sud, après le cancer (140,5 pour 100.000), les maladies mentales (52 pour 100.000) et les maladies cardiaques (45 pour 100.000), devant le diabète (19,6 pour 100.000).
En 2009, le taux annuel de suicide, qui s’élevait à 26,1 pour 100.000 personnes en 2005, a été en hausse pour la troisième année consécutive (23 pour 100.000 en 2006, 26 pour 100.000 en 2008, 31 pour 100.000 en 2009).
Le taux de suicide en Corée du Sud a récemment dépassé celui du Japon pour devenir l’un des plus élevés au monde (juste après le Guyana, la Hongrie et les pays de l’ancienne Union Soviétique), et le premier parmi les pays industrialisés membres de l’OCDE. ”
(ref. http://www.koreatimes.co.kr/www/news/nation/2010/10/113_73877.html)
Quand je lis ça “En Corée ou au Japon, le cadre scolaire est certes extrêmement exigent mais très clair.“, je ne m’arrête pas à l’erreur d’orthographe inexcusable pour un défenseur des systèmes sélectifs autoritaires, je me dis que vient faire un tel indigent ici!
Pisa, un fétiche utile à quoi ?
“c’est toute l’analyse qui vous dérange et vous n’avez pas su comment attaquer le morceau ! je ne m’arrête pas à l’erreur d’orthographe inexcusable pour un défenseur des systèmes sélectifs autoritaires, je me dis que vient faire un tel indigent ici ! ”
Arrêtez d’inventer ce que je ne dis pas pour mieux attaquer et pour taxer mes commentaires de “pourries”. Mon texte est écrit à minuit. A cette heure, on ne fait plus attention à l’orthographe. Par ailleurs, je ne défends pas non plus un système sélectif AUTORITAIRE. Le système coréen ressemble beaucoup au système japonais. C’est vous qui décrivez ce système ainsi, sans vraiment connaître le sujet et sans apporter de démonstration. Citer deux ou trois témoignages, ça prouve quoi ? C’est cette façon de généraliser à partir de deux ou trois exemples qui est gênante. Là où il y a erreur, c’est de confondre taux de croissance de suicide avec un taux de suicide. Si vous passez de 6% à 12%, c’est une croissance de 50%, mais votre taux est toujours inférieur à 14% donc moins important que le taux français. Et si on ne considère que le taux de suicide, les Coréens ne sont pas n°1, ils ne sont n°1 que pour le taux de croissance. Mais dans ce pays, les autorités ont réagi et ont pris conscience du problème.
De manière générale sur les systèmes éducatifs asiatiques, il faut comprendre que l’entrée à l’université se fait par concours. Et comme l’Etat et l’école n’ont pas vocation (et de moyens) à préparer les élèves à ces concours, c’est la famille qui se charge de cette mission avec les dérives observées (coût, cours privés supplémentaires, stress, etc). En France, les concours se passent après deux années de prépas. Dans la majorité des pays asiatiques, le concours se déroule l’année du bac. Et pour mettre toutes les chances de son côté, il faut travailler les années lycée comme on travaille dans les prépas françaises. Mais cela ne concerne que les bons élèves. C’est une vraie caricature que de croire que ce système est généralisé à l’ensemble de tous les élèves coréens.
PS : je ne vois pas pourquoi vous exhibez maintenant le taux de suicide de la population coréenne. Quel est le lien avec le système éducatif ? Pour rester dans l’enseignement, parlons du taux de suicide des enseignants. Pourquoi la France a un des taux de suicide et de dépression d’enseignants les plus importants du monde ? Peut-être parce que le système français est trop laxiste… Insulter ou menacer un prof ne renvoie pas au conseil de discipline…. Aller comprendre…
Pisa, un fétiche utile à quoi ?
décidément, ce sinistre sire s’enferre dans des faux-fuyants sans intérêt,
et je ne peux que réitérer ce que j’ai déjà écrit, mais le bonhomme n’imprime pas! Basta!
Sur le “laxisme”, j’ai l’impression de lire “LE FIGARO”!
ici on n’est pas à SOS éducation!
petit supplément sur l’éducation “exigeante mais très claire” en corée du sud:
http://fr.globalvoicesonline.org/2013/08/01/150724/
Pisa, un fétiche utile à quoi ?
Considérant que le site Questions de classe(s) n’a pas vocation à se faire le relais des thèses réac-publicaines sur l’école et leurs relents nauséabonds, nous invitons le “Nicolas” à aller intervenir sur d’autres sites plus en lien avec ses positions, il en existe beaucoup, il doit les connaître…
Le collectif d’animation de Q2C