Le Ministère vient de mettre en ligne ses conclusions département par département sur les résultats des évaluations CM2. Nous émettons de sérieuses réserves sur les informations transmises, leur fiabilité, leur intérêt…
Des évaluations mal conçues dès le départ :
Contrairement aux dispositifs en oeuvre les années précédentes, les évaluations CM2 de janvier 2009 n’ont pas été conçues par la DEPP (spécialement chargée de la statistique et de l’évaluation) mais par la Dgesco, c’est-à-dire la direction pédagogique du ministère chargée entre autre de l’élaboration des programmes.
Dans une dépêche de l’AEF du mois de février, deux anciens membres de la DEPP, dénonçaient cet OPA de la Dgesco sur une compétence de la DEPP. « OPA et non passage de témoin », sans concertation aucune, sans prise en compte des multiples compétences que le service de l’évaluation et de la statistique s’est forgé au fil du temps.
Cette manière de faire est d’autant plus contestable qu’elle pose des problèmes déontologiques, la Dgesco élabore les nouveaux programmes et les évalue elle-même, elle devient juge et partie.
Les évaluations CM2 sont censées apporter une aide aux enseignants pour repérer les élèves en difficulté et les faire progresser. Pourtant la correction binaire est imposée : l’élève a réussi ou échoué, les réussites partielles ne sont pas prises en compte. Cela ne permet pas de repérer les compétences qui sont en cours d’acquisition, encore moins de dresser une typologie des types d’erreurs, des démarches des élèves afin justement de définir les remédiations nécessaires.
Les élèves sont évalués sur l’ensemble du programme au cours du mois de janvier, et qui plus est sur des contenus réputés difficiles. Si nous prenons par exemple la partie mathématiques, on constate que les 2/3 des compétences d’ordre numérique font intervenir des nombres décimaux, ce qui complique forcément la tâche. Les élèves sont donc mis artificiellement en difficulté. Quel intérêt statistique ? Quel intérêt pédagogique pour l’élève ?
Il semble que tout soit fait pour mesurer non pas les acquis des élèves, mais au contraire pour enregistrer un taux d’échec : la passation début janvier, le codage binaire, les temps de passation des épreuves qui sont souvent très ou trop courts et enfin la nature même des exercices.
Quelle fiabilité des remontées ?
Le ministère tire aujourd’hui des généralités à partir de remontées partielles puisque seulement 60% des écoles ont transmis les données. Quitte à travailler sur des données partielles, il aurait été indispensable de constituer des échantillons statistiquement représentatifs des écoles françaises. Mais là, quelle fiabilité accorder aux données recueillies ?
Le ministère se garde bien évidemment d’aborder cette question. Plus grave encore, il passe sous silence la manière dont il a traité la nature des données recueillies. Nous savons que bon nombre de collègues ont rempli les relevés en s’accommodant bon gré mal gré du codage imposé : 1 pour réussite ou A pour absent pour tous les élèves d’une école aux ITEMS non abordés à cette période de l’année…
De même un communiqué du Syndicat National des Personnels de l’Inspection (SNPI-FSU) nous apprend que dans plusieurs départements, les IEN auraient subi des pressions pour retravailler les résultats des écoles avant leur transmission au ministère…
Autrement dit , et cela rejoint les craintes et les réserves que nous formulions dès le mois de janvier, ce dispositif n’est pas un outil au service de la réussite des élèves, au service des enseignants ou des parents, mais c’est un outil de propagande et de communication. Les conclusions sont écrites à l’avance et du début à la fin de l’opération, tout est mis en oeuvre pour arriver à l’objectif assigné en amont !
Le pilotage par l’évaluation : ses limites
Nous sommes là au coeur du dispositif de pilotage du système par l’évaluation qui se met en place actuellement à l’école primaire, comme dans les autres secteurs du service public d’éducation. Les résultats annoncés publiquement, conférence de presse à l’appui dans tous les départements ont deux objectifs :
- le premier, justifier les réformes de X. Darcos : 7 % d’élèves sont en difficulté 18% ont des acquis bien fragiles… « Il était temps d’élaborer des nouveaux programmes ». « L’Aide Personnalisée et les stages de remise à niveau pendant les vacances vont permettre de faire progresser les élèves en difficulté ! » Tout est dit !
- le second, transformer les pratiques pédagogiques au sein des écoles.
Le Service Public d’Education va s’engouffrer dans un dispositif fortement contesté dans les pays anglo-saxons où il est appliqué depuis plusieurs années. Un rapport officiel britannique (de l’OFSTED) affirme que si les résultats des élèves de collèges aux tests de mathématiques ne cessent de progresser, en revanche leur niveau de compétence diminue.
Les élèves ne comprennent pas réellement les mathématiques, ont peu confiance en eux, ne donnent pas de sens à ce qu’ils font. "A l’évidence des stratégies pour améliorer les résultats aux tests, y compris des leçons spéciales, des classes de révision, l’accent mis sur l’entraînement aux tests, réussissent à préparer les élèves à réussir les tests mais ne les équipe pas bien en compétences mathématiques pour le futur".
Evaluer oui mais comment ?
Nous ne sommes pas opposés au principe d’une évaluation nationale, qui permette d’établir des comparaisons, de donner des repères spatio-temporels, de faire évoluer les programmes et les pratiques pédagogiques. Mais ce dispositif ne peut être conçu à la va-vite et plaqué sans concertation aucune avec les enseignants.
Pour ce faire un simple échantillon statistique définie par la DEPP suffit. « Ce thermomètre » aurait une utilité réelle pour les personnels et les établissements.
Mais une évaluation généralisée de type sommatif dont la seule fonction est de mettre en concurrence explicite ou implicite des établissements scolaires ouvrant la voie à la création d’un marché scolaire par les familles est contraire aux valeurs du service public.
Ce pilotage par l’évaluation constitue un formatage utilitariste de l’éducation. Il n’est pas de nature à répondre aux besoins des élèves et des personnels, il secrète de la concurrence alors qu’il faut construire des coopérations.
Au quotidien dans nos classes, nous nous efforçons d’évaluer nos élèves, à partir d’outils que nous nous forgeons de façon à ce qu’ils ne soient pas vécus comme des évaluations sanctions mais comme un processus formatif qui permette à l’enfant comme à son enseignant, de mesurer les progrès réalisés et ceux à construire.
Ce travail n’est pas des plus simples à mettre en place pour l’enseignant. Le Ministère ferait mieux de nous donner les moyens en temps de concertation, en formation, pour mettre en place des outils d’évaluation bien pensés au service des élèves et de leur réussite !