Feeds:
Articles
Commentaires

Posts Tagged ‘stratégies d’évaluation’

Dans de nombreuses universités, les examens de « rattrapage » (ou de « troisième session ») battent leur plein juste avant la rentrée académique. C’est peut-être opportun de parler d’un phénomène dont tout le monde parle, enseignant-e-s comme étudiant-e-s, mais qui reste très méconnu dans son ampleur et ses multiples formes: la triche. Une étude internationale a été publiée récemment sur le sujet par Aurora Teixeira et Maria Rocha (Teixeira & Rocha, 2010). Ces deux chercheuses portugaises ont eu pour objectifs dans leur article de circonscrire ce qu’on entend généralement par « la triche » à l’université puis de mener une vaste étude internationale pour comparer les pratiques et attitudes des étudiant-e-s face à ce phénomène. Elles se sont focalisées en particulier sur les étudiant-e-s dans les facultés d’économie et d’études commerciales avec le postulat suivant. A priori, on s’attend de la part des diplômé-e-s en économie qu’ils/elles développent des attitudes et des pratiques éthiques en matière de commerce. Vu qu’ils/elles seront appelé-e-s à diriger des entreprises, il est attendu d’eux/elles qu’ils/elles se comportent de façon honnête dès le début de leurs études. Cependant, on entend parfois dans certaines universités, facultés ou départements que les fraudes et comportements de triche prennent de l’ampleur, en parlant notamment du plagiat. Mais qu’en est-il exactement?

Tout d’abord, de quoi parle-t-on? Teixeira et Rocha citent la définition suivante de la triche: « il s’agit d’actes qui recouvrent des domaines définis comme illégaux, non éthiques, immoraux ou qui vont à l’encontre des règlements en vigueur dans les cours ou les universités« , par exemple, la copie lors des examens écrits, l’utilisation de « pougnons » (ou « copions » en Belgique, ou encore « pompes », « anti-sèches », « bidoches », « tusts », « papiers de triche », etc., etc.) lors des examens, l’utilisation frauduleuse d’un téléphone portable ou d’un ordinateur pour échanger des réponses, le vol de questions d’examens, le fait de se faire représenter par un-e autre étudiant-e à un examen oral, etc. Cela peut aller jusqu’à la corruption d’un examinateur ou d’un-e enseignant-e pour passer une session d’examens plus facilement. On admet cependant généralement que si la triche peut être délibérée, elle peut être aussi pratiquée par ignorance des règles ou des pratiques scientifiques habituelles comme par exemple dans de nombreux cas de plagiat. Elle peut aussi se produire « sous l’effet de la panique », lorsque par exemple un-e étudiant-e se rend compte à un examen écrit qu’il/elle n’arrive pas à répondre à certaines questions. Dans leur étude, Teixeira et Rocha se sont focalisées uniquement sur la forme la plus courante de tricherie à savoir « copier sur son/sa voisin-e aux examens écrits ». Cette restriction se justifie dans la mesure où les études qu’elles ont répertoriées ne montrent pas de différences significatives entre les différents actes de tricherie du point de vue de leurs facteurs explicatifs (âge, sexe, année d’étude, etc.). Il est donc possible d’extrapoler les résultats de cette étude à d’autres pratiques frauduleuses. Pour comprendre le phénomène, les auteures ont distribué un questionnaire à 7213 étudiant-e-s de premier cycle d’études commerciales dans 21 pays. Ces pays se répartissent équitablement dans le classement mondial 2005 de la perception de corruption par la population.

Quelle est l’ampleur du phénomène dans le monde? Sur base de nombreuses recherches dont les plus anciennes remontent aux années 1920, les auteures de l’article soulignent que les pays où la triche est la plus répandue sont des pays fortement corrompus à différents niveaux de la société. Dans leur propre étude, c’est dans des pays d’Europe de l’Est comme la Roumanie et la Pologne que les étudiant-e-s déclarent le plus tricher avec respectivement 96% et 100% d’étudiant-e-s interrogé-e-s déclarant avoir déjà copié aux examens. Cependant, le lien entre triche et corruption d’un pays ne semble pas être aussi clair puisque des pays d’Europe du Sud et de l’Ouest sont aussi fortement touchés comme la France (83,9%) ou la Turquie (79,6%). Par contre, un pays notablement corrompu comme le Nigéria est touché par la triche dans une mesure nettement moindre (42,6%). Sans surprise, les pays où les étudiant-e-s déclarent le moins tricher sont les pays scandinaves (4,9%), les îles britanniques (14,4%) et la Nouvelle-Zélande (20,7%). Les pourcentages observés sont sensiblement les mêmes lorsqu’on analyse les réponses à la question « Avez-vous déjà vu d’autres étudiant-e-s copier à un examen? ». Cette question avait pour but de donner un aperçu de l’ampleur de la tricherie aux examens et de la « culture » de la triche dans les différents pays considérés.

Par contre, le lien entre la triche dans les études et la corruption ou la fraude dans le monde du travail est loin d’être démontré. Dans les recherches sur le sujet, on souligne souvent le paradoxe observé entre le fait que la majorité des étudiant-e-s interrogé-e-s déclarent être contre la triche mais avouent tout de même l’avoir pratiquée de temps à autres. Pour la grande majorité des étudiant-e-s interrogé-e-s, copier aux examens n’est pas un problème très préoccupant, sauf pour les étudiant-e-s africain-e-s et argentin-e-s qui semblent se sentir en porte-à-faux entre le fait que nombre de leurs collègues trichent aux examens mais que ce n’est pas un comportement éthique par rapport à la vie en société.

Plusieurs autres observations intéressantes peuvent être tirées des résultats de la recherche de Teixeira et Rocha:

  • Si les études sur le sujet dans les années 70 et 80 tendaient à montrer que la copie aux examens était un acte davantage attribuable aux garçons, la tendance semble s’inverser depuis quelques années… bien que des différences importantes existent entre pays.
  • Les étudiant-e-s dans la tranche d’âge 20-25 ans semblent davantage tricher que leurs collègues plus jeunes ou plus âgés. Mais là encore, des différences entre pays sont à noter puisque dans les îles britanniques, ce sont plutôt les étudiant-e-s plus âgés qui trichent davantage.
  • Les étudiant-e-s qui trichent le plus sont ceux/celles qui sont dans les années de fin de cycle. Il semble que lorsque l’enjeu de la réussite est plus important, les étudiant-e-s sont davantage tenté-e-s par la triche.
  • Les étudiant-e-s les plus brillant-e-s ont moins tendance à tricher. Ceci pourrait s’expliquer, selon les auteures, par le fait que ces étudiant-e-s auraient davantage à perdre si ils/elles se faisaient prendre sur le fait.
  • Copier aux examens semble aussi un phénomène en partie social dans la mesure où les étudiant-e-s sont davantage enclin-e-s à tricher s’ils/elles connaissent d’autres étudiant-e-s qui trichent aussi.
  • Un environnement d’étude peu structuré ou permissif tend aussi à être générateur de triche chez les étudiant-e-s. Les universités qui ont adopté et communiqué une charte éthique pour les étudiant-e-s (notamment à propos du plagiat) voient la proportion de triche diminuer fortement en leur sein.
  • On pourrait penser par ailleurs que les étudiant-e-s à temps partiel ou qui travaillent en même temps que leurs études auraient tendance à tricher davantage car ils/elles auraient moins de temps pour étudier, mais ceci ne se vérifie pas dans la recherche présentée.

Il est à noter cependant que tous ces résultats sont à replacer dans le contexte particulier de chaque pays ou région du monde car des différences notables apparaissent souvent.

Que retenir de cette étude et que peut-on mettre en place dans l’enseignement supérieur pour prévenir la propension des étudiant-e-s à tricher? J’ai trouvé personnellement l’étude intéressante (malgré quelques limites méthodologiques explicitées par les auteures elles-mêmes) car elle démonte plusieurs idées fausses à propos des pratiques de triche des étudiant-e-s, notamment le fait qu’ils/elles ne trichent pas nécessairement de façon consciente et délibérée mais aussi par ignorance ou en proie à la panique des examens. Pour prévenir ces comportements, il semble qu’un outil efficace soit la rédaction d’un « code d’honneur » ou d’une charte de bonne conduite au sein des universités qui préciserait les comportements adaptés, les pratiques interdites et les sanctions prévues en cas de non-respect des règles. Pour diminuer le stress lié aux évaluations, il semble aussi que le recours à des stratégies d’évaluation moins anxiogènes et réparties tout au long de l’année constitue une bonne solution à long terme. C’est par exemple ce que recommande la Conférence des Recteurs des Universités suisses (CRUS) (PDF – 107Ko, p. 7) dans le cadre de l’adoption de la réforme Bologne en Suisse.

Au niveau d’un programme d’études ou d’un cours en particulier, cela signifie réfléchir à une évaluation par module (c’est-à-dire un examen intégré pour un ensemble de cours sous la forme d’un travail écrit ou d’un examen écrit) ou à des modes d’évaluation qui s’étendraient sur l’ensemble de l’année en prenant en compte plusieurs types de travaux individuels, de groupe, écrits ou oraux. Idéalement en fait, il s’agirait de demander aux étudiant-e-s de multiplier les preuves de leur apprentissage, formellement ou informellement, pour augmenter le plus possible la validité de leurs notes finales. Il est plus facile de tricher lorsqu’un seul moment d’évaluation est prévu, par exemple lors d’un examen écrit (en copiant ou en préparant un anti-sèche), d’un examen oral (en influençant l’examinateur-trice) ou d’un travail écrit (en plagiant ou en achetant un travail rédigé par quelqu’un d’autre) que lorsque plusieurs évaluations sont prévues avec pour objectif d’obtenir une mesure la plus valide possible de l’apprentissage des étudiant-e-s.

Teixeira, A., & Rocha, M. (2010). Cheating by economics and business undergraduate students: an exploratory international assessment. Higher Education, 59(6), 663-701.

On trouvera par ailleurs un article et un débat intéressants à propos de la triche dans l’enseignement supérieur sur le site Inside Higher Education: The Faculty Role in Stopping Cheating, par Timothy Austin. L’auteur propose une réflexion et plusieurs conseils pratiques aux enseignant-e-s pour décourager les comportements de tricherie chez leurs étudiant-e-s.

Publicités

Read Full Post »

Depuis le début de l’année, deux notes ont été publiées spécifiquement sur les grilles d’évaluation critériées. Une question qui nous est souvent posée en formation est celle de la notation chiffrée des travaux des étudiant-e-s sur base d’une telle grille. En d’autres mots, comment attribue-t-on une note chiffrée ou alphanumérique (A, B, C, etc.) à un travail au moyen d’une grille ou comment traduire en note les critères d’évaluation formulés dans une grille? Ceci n’est pas toujours évident, surtout si les différents critères sont d’importance différente ou si l’on se réserve le droit d’attribuer une partie de la note à l’ensemble de la prestation écrite ou orale de l’étudiant-e.

Pour répondre à cette question, nous avons produit un court document (PDF – 88Ko) qui explique avec deux exemples comment il est possible d’attribuer une note à un-e étudiant-e au moyen d’une grille. Les exemples sont adaptés au contexte suisse (note sur 6) mais il est tout à fait possible de l’adapter à des notes sur 10 ou 20 (comme en Belgique ou en France) ou des notes en lettres (comme au Québec). L’idée principale derrière ces exemples est surtout que la grille devrait être une aide pour évaluer tous les travaux des étudiant-e-s de la même façon et selon les mêmes critères.

En passant, je signale l’intéressant article de Wikipedia (en anglais) sur les différents systèmes de grade en Europe et dans le monde.

Read Full Post »

Si dans la littérature pédagogique francophone on parle relativement peu des grilles d’évaluation critériées, il n’en va pas de même dans le monde anglo-saxon. En anglais, il existe une large littérature de recherche et on peut trouver sur le web de nombreux sites avec des exemples de grilles d’évaluation et des conseils pour en construire. J’avais déjà rassemblé plusieurs ressources dans une note précédente.

Dans la présente note, j’aimerais résumer l’article récent de Reddy et Andrade (2010) A review of rubric use in Higher Education. Ces deux chercheuses ont réalisé une revue de littérature sur le sujet en se posant quatre questions: quels types de recherche sont menés à propos de l’usage des grilles d’évaluation dans l’enseignement supérieur, ces grilles peuvent-elles être utilisées autant pour l’évaluation formative que pour l’évaluation sommative, comment évaluer la qualité des grilles produites par les enseignant-e-s et quelles pistes de recherche devrait-on suivre dans l’avenir?

Comme on peut s’en douter, l’usage le plus répandu des grilles d’évaluation est… l’évaluation des apprentissages des étudiant-e-s! Cependant, d’autres usages mériteraient d’être davantage mis en évidence notamment l’enseignement lui-même (pour soutenir le feedback aux étudiant-e-s par exemple ou pour cadrer les discussions en classe) et l’évaluation de programmes de formation.

De façon générale, les étudiant-e-s apprécient les grilles. Pour eux/elles, ces outils les aident à comprendre avec précision ce qui est attendu d’eux/elles aux examens et à situer leur compréhension de la matière tout au long de l’année. Cependant, pour que ces grilles s’avèrent efficaces pour l’apprentissage, les études sur le sujet mettent en évidence qu’il est utile de distribuer la grille aux étudiant-e-s avant leur évaluation (examen ou remise d’un travail).

Dans les études consultées, la vision qu’ont les enseignant-e-s de l’usage des grilles est assez différente de celle des étudiant-e-s. Ils/elles voient moins dans cet outil un soutien à l’apprentissage qu’un moyen pratique et rapide pour corriger et noter des travaux ou des copies d’examen. Ceci n’est pas étonnant mais cette vision amène certain-e-s à penser qu’il ne faut pas distribuer la grille aux étudiant-e-s avant un examen. Or les études encouragent plutôt à faire le contraire si l’on veut améliorer la réussite des étudiant-e-s. Elles encouragent même à discuter du contenu des grilles avec les étudiant-e-s, voire à les construire avec eux/elles pour qu’ils/elles s’approprient convenablement les exigences et les objectifs du cours.

En ce qui concerne l’évaluation de programme, la revue de Reddy et Andrade met en évidence plusieurs avantages: le dialogue au sein d’une commission de programme pour fixer plusieurs objectifs (et critères) communs, la possibilité de comparer les cours entre eux sur des critères bien définis et acceptés par tou-te-s ou la discussion sur l’orientation générale à donner à l’ensemble du programme.

La dernière question examinée par Reddy et Andrade est celle de la fidélité et de la validité des grilles produites par les enseignant-e-s à l’université. Là, c’est la grande interrogation. Très peu d’études ont été menées sur le sujet. En ce qui concerne la fidélité (donc le consensus intra- ou inter-correcteur-trice-s), trois études ont été recensées qui montrent l’utilité des grilles d’évaluation, notamment en calculant une corrélation élevée entre les notes données par les enseignant-e-s, par les étudiant-e-s évalué-e-s et par les pairs. Mais une étude insiste sur le fait qu’il est très important, pour obtenir un score de fidélité élevé, de prendre le temps d’une formation avec les personnes qui vont utiliser la grille pour évaluer. Souvent, ce n’est pas l’enseignant-e seul-e qui s’en occupe. En ce qui concerne la validité (c’est-à-dire le fait que la grille permet d’évaluer les compétences qu’elle prétend évaluer), les recherches consultées insistent sur le fait qu’il faudrait soigneusement choisir le vocabulaire utilisé dans les grilles et de vérifier que la formulation des critères est bien adaptée aux étudiant-e-s à qui la grille s’adresse.

En conclusion, les conseils d’usage des grilles d’évaluation qu’on peut retirer de cette revue de littérature pourraient être résumés comme suit:

  • Il est important de rendre les critères d’évaluation transparents dès le début du cours et d’en discuter avec les étudiant-e-s.
  • Il est utile d’utiliser des grilles pour évaluer les étudiant-e-s mais aussi pour soutenir l’enseignement. En d’autres termes, on pense souvent aux grilles pour l’évaluation sommative mais peu pour l’évaluation formative et le feed-back.
  • Il faudrait mener davantage de recherches sur les usages des grilles: leur fidélité et leur validité, leur caractère « local » (il n’est pas toujours facile d’utiliser une même grille dans différents cours ou contextes) et leur usage dans différents buts (évaluation de programme, en soutien à l’enseignement, etc.).

Reddy, Y. M., & Andrade, H. (2010). A review of rubric use in higher education. Assessment & Evaluation in Higher Education, 35(4), 435-448.

Read Full Post »

J’ai déjà parlé sur ce blog de grilles d’évaluation critériées (ou rubrics) et d’autres sujets liés à l’évaluation des apprentissages. J’ai rassemblé aussi quelques ressources sur le sujet sur cette page avec des exemples de grilles.

Lors du module de formation que nous donnons à Lausanne sur les stratégies d’évaluation, plusieurs questions sont souvent posées par les participant-e-s:

  • est-il possible d’être vraiment objectif-ve quand on évalue les apprentissages des étudiant-e-s? Ne vaut-il pas même mieux être un peu subjectif-ve quand même?
  • l’idéal, ce serait de pouvoir évaluer toujours de la même façon, sans être influencé-e par exemple par le soin de l’écriture d’un-e étudiant-e ou par sa tenue vestimentaire. Mais comment y arriver?
  • comment « mesurer » (avec une note chiffrée) la qualité des performances d’un-e étudiant-e ou dans quelle mesure il/elle a atteint les objectifs d’apprentissage d’un cours?

Ces questions touchent à la pratique quotidienne de l’évaluation et ne sont pas du tout anodines. Sans entrer dans de longues explications ou un vaste débat à leur sujet, on peut dire qu’effectivement, la question de la subjectivité en évaluation est importante et qu’elle est liée à celles de la validité et de la fiabilité. D’une part, une évaluation valide est une évaluation qui mesure effectivement ce qu’elle prétend mesurer. Une évaluation peu valide serait par exemple de corriger uniquement l’orthographe des étudiant-e-s pour une dissertation par laquelle on voudrait vérifier leurs capacités à articuler des idées par écrit et à argumenter leur opinion. D’autre part, une stratégie d’évaluation fiable est une stratégie qui permet d’évaluer toujours la même chose de la même façon: que l’on corrige des travaux à 7h ou à 19h ou que l’étudiant-e soit évalué-e par l’enseignant-e A ou l’enseignant-e B.

Une façon de diminuer la subjectivité de l’évaluation (sans nécessairement l’écarter totalement) est d’utiliser des grilles d’évaluation critériées. On trouvera une excellente introduction à cette stratégie de correction sur le site de Jon Mueller, professeur de Psychologie au North Central College et spécialiste des questions d’évaluation scolaire. On trouvera aussi un document plus conséquent du même auteur à cette adresse (PDF – 512Ko). Le principe d’une grille d’évaluation est d’établir une correspondance entre d’une part le résultat d’une tâche que l’on demande à un-e étudiant-e (un texte, une explication orale, une action précise dans un contexte professionnel, etc.) et d’autre part des critères de qualité de ce résultat fourni par l’étudiant-e accompagnés ou non d’une échelle à plusieurs degrés de performance. Un exemple typique:

Évaluation d’une recherche bibliographique en histoire
Critères Insuffisant (niveau 1) Bon (niveau 2) Excellent (niveau 3) % des points
Nombre de sources citées 1-4 5-10 + de 10 20%
Précision des faits historiques Beaucoup d’imprécisions Peu d’imprécision Pas d’imprécision apparente 40%
Organisation de la recherche Difficulté pour déterminer de quelle source proviennent les faits exposés Peu de difficulté pour déterminer de quelle source proviennent les faits exposés Pas de difficulté pour déterminer la correspondance entre les sources et les faits exposés 20%
Bibliographie Ne respecte pas les normes Quelques erreurs dans le respect des normes Pas ou peu d’erreurs dans le respect des normes 20%

Chaque ligne du tableau correspond à un critère d’évaluation qui permettra d’apprécier le texte fourni par les étudiant-e-s. Ces critères permettent de répondre à la question: sur quoi va porter mon regard lorsque je vais évaluer le texte des étudiant-e-s? Ce sont ces critères qui seront évalués et pas l’orthographe, la clarté de l’écriture ou tout autre critère plus subjectif. Chaque colonne correspond à un niveau de performance dans l’atteinte de chaque critère d’évaluation. Ces niveaux permettent de répondre à la question: à quoi ressemble un travail insuffisant et quelle est la différence avec un bon ou un excellent travail? Typiquement, un-e étudiant-e « qui est capable d’effectuer une recherche bibliographique en histoire » devrait atteindre le niveau 2 pour tous les critères.

La dernière colonne permet de pondérer les critères en fonction de leur importance par rapport à l’atteinte de l’objectif général (ici, la capacité à effectuer une recherche bibliographique en histoire) et de donner une note.

D’autres exemples sont accessibles dans les liens présentés plus haut, que ce soit pour des travaux écrits dans différents domaines d’étude, pour des présentations orales ou même pour évaluer la participation des étudiant-e-s en classe.

Pour revenir aux quelques questions que je posais plus haut, ce type d’outil d’évaluation permet dans une certaine mesure de diminuer la subjectivité de l’évaluation en ceci que l’enseignant-e évalue toujours les mêmes critères pour tous les étudiant-e-s (fiabilité) et que les critères sont normalement directement en lien avec l’objectif d’apprentissage à évaluer (validité). Cependant, la subjectivité ne disparaît pas totalement non plus. Dans l’exemple ci-dessus, il n’est certainement pas toujours facile de déterminer en toute objectivité que dans un travail donné « il y a beaucoup, peu ou pas de difficulté pour déterminer la correspondance entre les sources et les faits historiques exposés »… Il s’agira toujours pour l’enseignant-e d’interpréter de quoi les étudiant-e-s sont capables au travers du texte qu’ils/elles ont produit. Mais au moins, l’enseignant-e pourra dire pourquoi et argumenter auprès d’un-e étudiant-e qui ne comprendrait pas sa note finale par exemple.

Ceci dit, je n’ai parlé ici de l’usage des grilles d’évaluation que dans le cadre d’une évaluation sommative (en fin d’apprentissage) mais d’autres usages sont tout à fait possibles bien sûr, comme pour une auto-évaluation, une évaluation par les pairs ou comme fiche de feedback à remettre aux étudiant-e-s après une présentation orale par exemple. Je parlerai de ces autres types d’usages dans quelques prochains articles, et notamment de mes expériences d’accompagnement d’enseignant-e-s qui développent des grilles d’évaluation pour leurs cours.

Pour finir, voici les références d’un livre introductif mais très complet sur le sujet (de larges extraits sont consultables en ligne):

Stevens, D. D., & Levi, A. (2005). Introduction to rubrics. Sterling, VA: Stylus Publishing.

Read Full Post »

J’ai présenté il y a quelques temps un document intitulé « Le feedback pour favoriser l’apprentissage » préparé avec trois collègues de l’UNIL et du Centre de didactique universitaire de l’Université de Fribourg. Très récemment, nous avons eu l’occasion de présenter ce document à Lausanne lors d’un atelier d’une heure trente. Onze personnes ont participé, des enseignant-e-s et des assistant-e-s qui avaient des questions très variées à propos du feedback: accompagnement de mémoires, animation de séminaires, auto-évaluation, évaluation par les pairs, etc. mais aussi feedback aux enseignant-e-s dans le cadre de l’évaluation des enseignements. Nous avions préparé une session très interactive avec un temps de réflexion personnelle, des discussions par paires, une discussion en groupe et une synthèse générale.

Pour susciter la réflexion personnelle, nous avons préparé un questionnaire individuel (PDF – 140Ko) dont le but est de soutenir la réflexion sur ses pratiques actuelles de feedback et de se questionner sur d’autres pratiques possibles. Nous avons présenté cet outil de la manière suivante:

Le but des questions posées dans ce document est simplement de proposer une réflexion sur les pratiques de feedback aux étudiant-e-s à l’université et d’ouvrir des perspectives pour les développer. Il s’agit d’une boîte à idées issues d’enseignant-e-s universitaires plutôt que d’une liste de pratiques à mettre en œuvre. Chaque idée peut ensuite être adaptée à des situations variées.

Ensuite les questions sont réparties en sept thématiques qui correspondent à celles décrites dans le document de synthèse:

  1. Définir des critères pour clarifier les exigences attendues;
  2. Utiliser des stratégies pour améliorer la prise en compte du feedback par les étudiant-e-s;
  3. Délivrer une information de qualité;
  4. Soutenir la motivation des étudiant-e-s par le feedback;
  5. Comprendre le feedback comme un dialogue;
  6. Donner l’occasion à l’étudiant-e de s’auto-évaluer;
  7. Réguler son enseignement à l’aide du feedback.

La petite expérience vécue d’utilisation de ce questionnaire avec un groupe d’enseignant-e-s et d’assistant-e-s a été assez positive. Les discussions qui ont eu lieu ont été intéressantes notamment à propos de l’évaluation par les pairs (parce que les enseignant-e-s n’ont pas nécessairement à faire tout le travail de feedback seul-e-s) et de l’organisation de séminaires basés sur la présentation de travaux d’étudiant-e-s et de discussions (en particulier pour faire participer tou-te-s les étudiant-e-s aux discussions).

Read Full Post »

Le 8 septembre dernier, l’AIPU Suisse organisait sa première journée d’étude intitulée « Innover dans l’évaluation des apprentissages. Pourquoi et comment ? ». J’avais annoncé l’arrivée d’un compte-rendu. Le voici donc. Je présente ici mes quelques notes et réflexions.

La conférence introductive était présentée par Marc Romainville. J’ai trouvé intéressant le fait qu’il fonde son intervention sur les représentations que beaucoup d’enseignant-e-s du supérieur se font de l’évaluation. J’ai retenu plusieurs choses, qui pourront paraître un peu triviales à certain-e-s mais qui, de mon point de vue de conseiller pédagogique, me semblent intéressantes à expliciter aux yeux des enseignant-e-s.

Il y a souvent dans l’enseignement supérieur une différence entre les exigences annoncées aux étudiant-e-s et les exigences effectives (celles qui interviennent au moment de l’examen). Il y a ainsi beaucoup d’exigences et de critères d’évaluation implicites. Par exemple, un-e enseignant-e peut annoncer avant un examen qu’il ne tiendra pas compte de l’orthographe lors de la correction des copies mais se laisser tout de même influencer par la maîtrise de la langue écrite par les étudiant-e-s lors de l’examen. Un autre exemple, pour une même question d’examen comme « Définissez le principe d’Archimède », deux enseignant-e-s corrigeront tout à fait différemment selon qu’ils/elles attendent une définition mot à mot issue du livre de référence ou une définition expliquée par l’étudiant-e avec ses propres mots. Dans un cas, on vise la rétention d’information, dans l’autre la compréhension d’une notion.

Il y a donc des problèmes de validité (par exemple, on prétend mesurer la réflexion des étudiant-e-s alors qu’on ne fait que mesurer leur mémoire) et de fidélité (par exemple, deux enseignant-e-s corrigent différemment une même copie ou un-e même enseignant-e corrige différemment une même copie à des moments différents). Le problème est que beaucoup d’enseignant-e-s (selon les études citées par Marc Romainville) pensent que leur évaluation est suffisamment objective ou encore qu’il faut de la subjectivité dans l’évaluation. Or, l’évaluation est en réalité une inférence, une construction de sens à propos d’une performance d’un-e étudiant-e réalisée à un moment donné et qui est censée représenter un apprentissage. L’évaluation est une procédure par laquelle un-e étudiant-e va apporter une preuve qu’il a atteint un objectif d’apprentissage spécifique.

Sans prétendre arriver à être totalement objectif, on peut tout de même mettre en place certaines balises procédurales pour réduire la subjectivité. Pour ce faire, Marc Romainville propose de travailler en cinq étapes:

  1. Définir les compétences et les connaissances à mesurer en rédigeant des objectifs d’apprentissage mesurables et en vérifiant que ceux-ci ont effectivement fait l’objet d’un enseignement. On a tendance parfois à considérer certaines compétences comme des prérequis sans le formuler explicitement.
  2. Élaborer un dispositif d’évaluation approprié. Faire un examen oral dans un cours portant sur la maîtrise de la rédaction écrite ne serait pas le plus approprié par exemple…
  3. Clarifier le contrat didactique en informant les étudiant-e-s des modalités et des critères d’évaluation, en suggérant des démarches d’apprentissage (pour prendre des notes ou étudier par exemple), en rappelant régulièrement ces modalités et ces démarches et en créant des situations d’apprentissage actif (simuler un examen, proposer en lecture des copies d’examen d’années précédentes, exercer à l’utilisation de la grille d’évaluation, etc.).
  4. Établir la note en traitant les copies de façon anonyme, question par question et dans un ordre différent pour chaque question. La note devrait aussi être établie selon une méthode prédéfinie et identique pour chaque étudiant-e, même lors d’examens oraux.
  5. Retourner de l’information, donc un feedback, de façon bienveillante et en encourageant le développement.

Une stratégie intéressante pour rendre explicite la démarche d’évaluation est celle des grilles d’évaluation critériées dont j’ai déjà parlé plusieurs fois sur ce blog. Quelques exemples sont accessibles sur le site du livre « Enseigner à l’Université dans une approche-programme » de Huguette Bernard, Anastassis Kozanitis et Richard Prégent (2009). Par ailleurs, le site « Authentic assesment Toolbox » propose plusieurs techniques et de nombreux exemples pour mettre en place des stratégies diversifiées d’évaluation des apprentissages (portfolio, grilles d’évaluation, etc.).

L’après-midi était consacré à un travail en ateliers centrés sur des thématiques choisies par les participant-e-s. J’étais dans le groupe qui a réfléchi à l’auto-évaluation des étudiant-e-s. La discussion a tourné autour de plusieurs questions centrales:

  • quels outils peut-on fournir aux étudiant-e-s pour les soutenir dans leurs auto-évaluations?
  • dans quelle mesure l’auto-évaluation peut-elle soutenir l’auto-formation ou l’apprentissage individuel?
  • quels peuvent être les objectifs d’un exercice d’auto-évaluation?
  • quelle peut être la relation entre auto-évaluation et évaluation?
  • quelle est la validité de l’auto-évaluation?
  • sous quelles modalités peut-on organiser l’auto-évaluation avec ses étudiant-e-s?

Quelques points que je retiens de la discussion:

  • Il est assez important de bien cadrer ce type d’exercice: objectifs, temporalité, consignes, etc.
  • Des objectifs intéressants à poursuivre pour les étudiant-e-s peuvent être la prise de conscience de ses propres processus d’apprentissage, la confrontation avec une grille de critères prédéfinis ou la valorisation de son expérience.
  • L’auto-évaluation de l’enseignant-e permet aussi de développer la qualité de la formation.

J’ai trouvé un résumé intéressant de ce que peut être l’auto-évaluation dans l’enseignement supérieur sur le site de la Queen’s University de Belfast. Plusieurs autres ressources y sont aussi proposées.

Enfin, sur les questions d’évaluation des apprentissages dans l’enseignement supérieur, voici deux références de base:

Brown, G., Bull, J., & Pendlebury, M. (1997). Assessing student learning in higher education. London: Routledge.

Dunn, L., Morgan, C., O’Reilly, M., & Parry, S. (2004). The student assessment handbook. London: Routledge.

Read Full Post »

« Newer Posts