Aujourd'hui, l'évaluation est devenue une chose des plus sérieuse. On a tout changé les règles. Et on doit surtout avoir l'allure réforme avec les échelles critériées, sauf que...
Cibole que c'est chiant et connard!
Par exemple, je fais une petite évaluation de lecture d'un roman au programme de l'étape. On s'assied deux profs de français pour pondre des questions. Une, au clavier, moi j'ai mes notes de lecture, et plusieurs idées de questions. Bref, on arrive rapidement à un nombre raisonnable de questions pour un examen de lecture d'une heure.
Bon, il reste une pondération à faire. Récemment encore, on ne se cassait pas la tête. Question facile: peu de points; questions difficiles: plus de points. On met la réponse attendue en corrigé. On propose de mettre des points par élèments dans certaines questions... On s'arrange pour un total qui donne un beau chiffre, histoire de faciliter les calculs. On regarde comment les élèves s'en sortent. Et on ajuste le tir. Comme dans n'importe qu'elle «mauzusse» de processus de mesures par questionnaire. Je le sais, j'ai fait psycho. La psychométrie est une science assez sérieuse, il me semble, dans les sciences humaines. Ensuite, je ne vais pas évaluer la province, juste 3 groupes dans une petite école. Même si l'instrument n'est pas parfait, il fait une mesure de compréhension de leur lecture selon l'intelligence de deux professionnels de l'enseignement qui ont bâti un questionnaire et mis une pondération raisonnable. Et même là, en regardant comment les élèves se comportent, on ajuste l'évaluation un peu si on se rend compte, par exemple, qu'une question était mal formulée ou créait de la confusion ou si une question n'est vraiment pas réussie par personne. La mesure d'un apprentissage ne se mesure pas à la règle, mais bon le questionnaire bâti avec intelligence fournit depuis belle lurette des indices intéressants. Allez vérifier chez Statistique Canada et les maisons de sondage... Ben, à l'école, ce n'est pas assez de nos jours.
Depuis qu'on m'a fait de gros yeux quand j'ai sorti une grille de correction que j'ai utilisée, l'an dernier, dans une autre école pour un texte explicatif qui, au lieu de faire dans le descriptif gaga à la mode, y allait de pointage sur des critères assez communs pour ce genre d'évaluation, je ne sais plus trop à quel saint me vouer en fait.
Va-t-il falloir que je détaille d'avance tous les cas de réponse et de partie de réponses? Que j'analyse si ma question révèle la lecture d'éléments explicites ou implicites que je fasse un regroupement de questions et une échelle descriptive, etc. Ou un raccourci presque réforme que j'ai vu l'an dernier aussi du genre R=3/5 pour dire qu'une question est réussie si on a 3/5. Oui, c'est beau la rigueur, mais si je dois mettre trop d'heure à peaufiner ma mesure, je me vais pas m'en sortir... Et pour donner quoi de plus, franchement...
Le pire dans tout ça, c'est d'essayer de comprendre tout cela à partir de leur bride d'information et de leur jargon d'expert à la noix et de leurs modèles donnés au compte-goutte. Pour finir par se rendre compte qu'on va finir par revenir au bon vieille façon.
Aucun commentaire:
Enregistrer un commentaire