Feeds:
Articles
Commentaires

Posts Tagged ‘feed-back’

Pour documenter nos formations pédagogiques, nous avons conçu, mon collègue Denis Berthiaume et moi, un document de synthèse (PDF – 292Ko) à propos des stratégies d’évaluation dans l’enseignement supérieur. Voici son introduction:

L’objectif de ce document est de présenter différents aspects à considérer lorsque l’on conçoit un dispositif d’évaluation des apprentissages des étudiant-e-s à l’université. Plusieurs questions sont abordées ici:

  • Quels sont les apprentissages des étudiant-e-s à évaluer?
  • Comment obtenir une "trace" ou un "témoignage" de leurs apprentissages? Quelles stratégies d’évaluation peuvent être mises en place pour y parvenir (comme un examen oral, un questionnaire, la réalisation d’un travail écrit, etc.)?
  • Comment interpréter ces traces des apprentissages des étudiant-e-s et leur accorder une note?

Derrière ces questions apparaissent en filigrane des éléments importants liés à l’évaluation auxquels les enseignant-e-s universitaires sont souvent confronté-e-s: la subjectivité de leur évaluation, la validité et la fiabilité des stratégies d’évaluation choisies, ou encore les outils à mettre en œuvre pour mener ce processus à bien.

Pour tout-e enseignant-e, l’évaluation constitue probablement l’activité la plus "technique". Plusieurs procédures et stratégies sont à mettre en œuvre pour assurer validité (mesure-t-on bien ce qu’on a l’intention de mesurer?) et fiabilité (évalue-t-on toujours de la même façon?) à l’évaluation. Le document ne prétend pas être exhaustif mais propose simplement plusieurs questions et conseils à garder en tête au moment de procéder à l’évaluation des apprentissages de ses étudiant-e-s. J’ai rassemblé par ailleurs plusieurs liens utiles à propos d’évaluation en général dans l’enseignement supérieur.

Read Full Post »

Dans le cadre d’une réflexion large dans mon université à propos des usages des portfolios et e-portfolios, nous avons conçu, mon collègue Denis Berthiaume et moi-même, un document de synthèse sur l’utilisation de portfolios pour l’évaluation des apprentissages des étudiant-e-s (PDF – 116Ko). J’ai ensuite organisé un atelier d’une heure trente sur ce thème auquel une douzaine d’enseignant-e-s, assistantes et conseillères pédagogiques ont participé. Dans cette note, je présente ce document ainsi que la présentation orale que j’ai préparée pour l’atelier.

Les autres notes de ce blog à propos des portfolios se trouvent ici et j’ai rassemblé plusieurs ressources à cet endroit.

La définition du portfolio (pour l’évaluation des apprentissages) que nous avons retenue est la suivante:

Un portfolio est une collection ciblée de travaux qui montre les efforts individuels, les progrès et les prestations de l’apprenant-e dans un ou plusieurs domaines. La collection doit comprendre la participation de l’apprenant-e au choix des contenus et des critères pour le choix, sa participation à la détermination des critères d’appréciation ainsi que des indications sur la capacité de réflexion sur soi de l’apprenant-e (Paulson, Paulson & Meyer, 1991).

Cette définition, à l’air tout innocent, contient en fait plusieurs idées assez innovantes en ce qui concerne l’évaluation des apprentissages dans l’enseignement supérieur…

  • "une collection ciblée de travaux": en général, l’évaluation porte sur un seul travail écrit ou une seule présentation orale et pas sur un ensemble de travaux (oraux, écrits, multimédias ou relevant de performances diverses) évalués comme un tout.
  • "qui montre les efforts individuels, les progrès et les prestations de l’apprenant-e": le plus souvent, pour évaluer les apprentissages des étudiant-e-s, nous nous basons sur des prestations ponctuelles (travaux écrits, oraux, etc.). Avec un portfolio, il est possible d’évaluer aussi les efforts ou les progrès des étudiant-e-s, par exemple si les objectifs pédagogiques touchent à la persévérance ou à l’analyse de ses erreurs.
  • "un ou plusieurs domaines": le plus souvent, chaque cours dans un programme de formation possède son propre système d’évaluation, donc une évaluation par discipline enseignée. Or il peut être opportun et cohérent dans certains cas d’évaluer la façon dont les étudiant-e-s intègrent les apports de plusieurs cours voire d’un programme dans son ensemble.
  • "participation de l’apprenant-e": de manière générale, les étudiant-e-s "subissent" davantage les évaluations sommatives qu’ils/elles n’y participent, c’est-à-dire qu’ils/elles réalisent une prestation qui est notée (et parfois accompagnée d’un feed-back). Ceci est un peu différent pour les évaluations formatives où il y a davantage de participation, de discussion voire de négociation avec les étudiant-e-s. Avec le portfolio, il est possible de leur donner l’occasion de s’impliquer et participer davantage à leur formation en leur donnant une certaine autonomie par rapport à leur évaluation. Cette participation porte sur le produit qui sera évalué mais aussi sur les critères d’évaluation.
  • "capacité de réflexion sur soi de l’apprenant-e": l’analyse et la réflexion sont des compétences attendues de la part des étudiant-e-s à la fin de leur programme universitaire mais l’analyse et la réflexion sur soi, ses compétences et sa façon de progresser sont plus rarement exprimées explicitement comme objectifs à atteindre (sauf peut-être dans les formations d’enseignant-e-s). Le portfolio permet d’obtenir des indices du développement de ces compétences.

Ci-dessous, on trouvera le support de la présentation à l’atelier. Dans les dernières dias, plusieurs exemples de portfolios pour l’évaluation dans l’enseignement supérieur sont évoqués. D’autres références et d’autres exemples sont aussi mentionnés dans le document de synthèse avec également des exemples de consignes données aux étudiant-e-s.

Précisons enfin que le document que nous avons conçu porte sur un usage particulier du portfolio, à savoir dans le cadre de l’évaluation des apprentissages des étudiant-e-s. D’autres usages existent et nous les définissons comme suit:

  • On pourrait distinguer quatre types ou quatre fonctions principales des portfolios:
    • Le portfolio pour l’évaluation des apprentissages dans le cadre d’une formation ou d’un cours donnés: dans ce cas, le but du portfolio est de constituer un répertoire de travaux commentés par les étudiant-e-s qui permettra à l’enseignant-e d’évaluer l’atteinte des objectifs pédagogiques et le développement des compétences des étudiant-e-s, le plus souvent dans une perspective formative.
    • Le portfolio de présentation: il s’agit ici de rassembler des travaux dans le but de les présenter par exemple dans le cadre d’une recherche d’emploi ou de la conclusion d’un marché. Dans ce cadre, le portfolio peut être annexé à un curriculum vitae.
    • Le portfolio de validation ou de certification: dans ce cas, le portfolio est présenté en vue de faire valider des compétences ou des apprentissages pour obtenir un diplôme ou un certificat ou pour être admis dans une formation supérieure ou professionnelle.
    • Le portfolio de développement professionnel ou personnel dont le but est de mettre en évidence le processus de développement de compétences tout au long de la vie.
  • Ces différents types de portfolios se rejoignent cependant sur plusieurs points :
    • Une perspective réflexive de l’apprentissage, c’est-à-dire le développement chez les étudiant-e-s de compétences transversales comme l’auto-évaluation et la compréhension de ses propres processus et méthodes d’apprentissage.
    • Une perspective expérientielle de l’apprentissage, c’est-à-dire la mise en évidence et la valorisation de toutes ses expériences d’apprentissage, que celles-ci soient explicites ou implicites. Dans un portfolio, l’étudiant-e est amené à décrire ses expériences puis à les analyser.
    • Une autonomie et une responsabilisation de l’étudiant-e vis-à-vis de son propre processus d’apprentissage: dans un cadre défini au départ par l’enseignant-e, c’est l’étudiant-e qui prend en charge la constitution de son portfolio et l’auto-évaluation de ses apprentissages.

Paulson, F. L., Paulson, P. R., & Meyer, C. A. (1991). What makes a portfolio a portfolio ? Educational Leadership, 48(5), 60-63 En ligne: http://faculty.milkenschool.org/sperloff/edtech/portfolioarticle2.pdf (PDF – 1,4Mo).

Read Full Post »

J’ai déjà parlé sur ce blog de grilles d’évaluation critériées (ou rubrics) et d’autres sujets liés à l’évaluation des apprentissages. J’ai rassemblé aussi quelques ressources sur le sujet sur cette page avec des exemples de grilles.

Lors du module de formation que nous donnons à Lausanne sur les stratégies d’évaluation, plusieurs questions sont souvent posées par les participant-e-s:

  • est-il possible d’être vraiment objectif-ve quand on évalue les apprentissages des étudiant-e-s? Ne vaut-il pas même mieux être un peu subjectif-ve quand même?
  • l’idéal, ce serait de pouvoir évaluer toujours de la même façon, sans être influencé-e par exemple par le soin de l’écriture d’un-e étudiant-e ou par sa tenue vestimentaire. Mais comment y arriver?
  • comment "mesurer" (avec une note chiffrée) la qualité des performances d’un-e étudiant-e ou dans quelle mesure il/elle a atteint les objectifs d’apprentissage d’un cours?

Ces questions touchent à la pratique quotidienne de l’évaluation et ne sont pas du tout anodines. Sans entrer dans de longues explications ou un vaste débat à leur sujet, on peut dire qu’effectivement, la question de la subjectivité en évaluation est importante et qu’elle est liée à celles de la validité et de la fiabilité. D’une part, une évaluation valide est une évaluation qui mesure effectivement ce qu’elle prétend mesurer. Une évaluation peu valide serait par exemple de corriger uniquement l’orthographe des étudiant-e-s pour une dissertation par laquelle on voudrait vérifier leurs capacités à articuler des idées par écrit et à argumenter leur opinion. D’autre part, une stratégie d’évaluation fiable est une stratégie qui permet d’évaluer toujours la même chose de la même façon: que l’on corrige des travaux à 7h ou à 19h ou que l’étudiant-e soit évalué-e par l’enseignant-e A ou l’enseignant-e B.

Une façon de diminuer la subjectivité de l’évaluation (sans nécessairement l’écarter totalement) est d’utiliser des grilles d’évaluation critériées. On trouvera une excellente introduction à cette stratégie de correction sur le site de Jon Mueller, professeur de Psychologie au North Central College et spécialiste des questions d’évaluation scolaire. On trouvera aussi un document plus conséquent du même auteur à cette adresse (PDF – 512Ko). Le principe d’une grille d’évaluation est d’établir une correspondance entre d’une part le résultat d’une tâche que l’on demande à un-e étudiant-e (un texte, une explication orale, une action précise dans un contexte professionnel, etc.) et d’autre part des critères de qualité de ce résultat fourni par l’étudiant-e accompagnés ou non d’une échelle à plusieurs degrés de performance. Un exemple typique:

Évaluation d’une recherche bibliographique en histoire
Critères Insuffisant (niveau 1) Bon (niveau 2) Excellent (niveau 3) % des points
Nombre de sources citées 1-4 5-10 + de 10 20%
Précision des faits historiques Beaucoup d’imprécisions Peu d’imprécision Pas d’imprécision apparente 40%
Organisation de la recherche Difficulté pour déterminer de quelle source proviennent les faits exposés Peu de difficulté pour déterminer de quelle source proviennent les faits exposés Pas de difficulté pour déterminer la correspondance entre les sources et les faits exposés 20%
Bibliographie Ne respecte pas les normes Quelques erreurs dans le respect des normes Pas ou peu d’erreurs dans le respect des normes 20%

Chaque ligne du tableau correspond à un critère d’évaluation qui permettra d’apprécier le texte fourni par les étudiant-e-s. Ces critères permettent de répondre à la question: sur quoi va porter mon regard lorsque je vais évaluer le texte des étudiant-e-s? Ce sont ces critères qui seront évalués et pas l’orthographe, la clarté de l’écriture ou tout autre critère plus subjectif. Chaque colonne correspond à un niveau de performance dans l’atteinte de chaque critère d’évaluation. Ces niveaux permettent de répondre à la question: à quoi ressemble un travail insuffisant et quelle est la différence avec un bon ou un excellent travail? Typiquement, un-e étudiant-e "qui est capable d’effectuer une recherche bibliographique en histoire" devrait atteindre le niveau 2 pour tous les critères.

La dernière colonne permet de pondérer les critères en fonction de leur importance par rapport à l’atteinte de l’objectif général (ici, la capacité à effectuer une recherche bibliographique en histoire) et de donner une note.

D’autres exemples sont accessibles dans les liens présentés plus haut, que ce soit pour des travaux écrits dans différents domaines d’étude, pour des présentations orales ou même pour évaluer la participation des étudiant-e-s en classe.

Pour revenir aux quelques questions que je posais plus haut, ce type d’outil d’évaluation permet dans une certaine mesure de diminuer la subjectivité de l’évaluation en ceci que l’enseignant-e évalue toujours les mêmes critères pour tous les étudiant-e-s (fiabilité) et que les critères sont normalement directement en lien avec l’objectif d’apprentissage à évaluer (validité). Cependant, la subjectivité ne disparaît pas totalement non plus. Dans l’exemple ci-dessus, il n’est certainement pas toujours facile de déterminer en toute objectivité que dans un travail donné "il y a beaucoup, peu ou pas de difficulté pour déterminer la correspondance entre les sources et les faits historiques exposés"… Il s’agira toujours pour l’enseignant-e d’interpréter de quoi les étudiant-e-s sont capables au travers du texte qu’ils/elles ont produit. Mais au moins, l’enseignant-e pourra dire pourquoi et argumenter auprès d’un-e étudiant-e qui ne comprendrait pas sa note finale par exemple.

Ceci dit, je n’ai parlé ici de l’usage des grilles d’évaluation que dans le cadre d’une évaluation sommative (en fin d’apprentissage) mais d’autres usages sont tout à fait possibles bien sûr, comme pour une auto-évaluation, une évaluation par les pairs ou comme fiche de feedback à remettre aux étudiant-e-s après une présentation orale par exemple. Je parlerai de ces autres types d’usages dans quelques prochains articles, et notamment de mes expériences d’accompagnement d’enseignant-e-s qui développent des grilles d’évaluation pour leurs cours.

Pour finir, voici les références d’un livre introductif mais très complet sur le sujet (de larges extraits sont consultables en ligne):

Stevens, D. D., & Levi, A. (2005). Introduction to rubrics. Sterling, VA: Stylus Publishing.

Read Full Post »

J’ai présenté il y a quelques temps un document intitulé "Le feedback pour favoriser l’apprentissage" préparé avec trois collègues de l’UNIL et du Centre de didactique universitaire de l’Université de Fribourg. Très récemment, nous avons eu l’occasion de présenter ce document à Lausanne lors d’un atelier d’une heure trente. Onze personnes ont participé, des enseignant-e-s et des assistant-e-s qui avaient des questions très variées à propos du feedback: accompagnement de mémoires, animation de séminaires, auto-évaluation, évaluation par les pairs, etc. mais aussi feedback aux enseignant-e-s dans le cadre de l’évaluation des enseignements. Nous avions préparé une session très interactive avec un temps de réflexion personnelle, des discussions par paires, une discussion en groupe et une synthèse générale.

Pour susciter la réflexion personnelle, nous avons préparé un questionnaire individuel (PDF – 140Ko) dont le but est de soutenir la réflexion sur ses pratiques actuelles de feedback et de se questionner sur d’autres pratiques possibles. Nous avons présenté cet outil de la manière suivante:

Le but des questions posées dans ce document est simplement de proposer une réflexion sur les pratiques de feedback aux étudiant-e-s à l’université et d’ouvrir des perspectives pour les développer. Il s’agit d’une boîte à idées issues d’enseignant-e-s universitaires plutôt que d’une liste de pratiques à mettre en œuvre. Chaque idée peut ensuite être adaptée à des situations variées.

Ensuite les questions sont réparties en sept thématiques qui correspondent à celles décrites dans le document de synthèse:

  1. Définir des critères pour clarifier les exigences attendues;
  2. Utiliser des stratégies pour améliorer la prise en compte du feedback par les étudiant-e-s;
  3. Délivrer une information de qualité;
  4. Soutenir la motivation des étudiant-e-s par le feedback;
  5. Comprendre le feedback comme un dialogue;
  6. Donner l’occasion à l’étudiant-e de s’auto-évaluer;
  7. Réguler son enseignement à l’aide du feedback.

La petite expérience vécue d’utilisation de ce questionnaire avec un groupe d’enseignant-e-s et d’assistant-e-s a été assez positive. Les discussions qui ont eu lieu ont été intéressantes notamment à propos de l’évaluation par les pairs (parce que les enseignant-e-s n’ont pas nécessairement à faire tout le travail de feedback seul-e-s) et de l’organisation de séminaires basés sur la présentation de travaux d’étudiant-e-s et de discussions (en particulier pour faire participer tou-te-s les étudiant-e-s aux discussions).

Read Full Post »

L’évaluation par les pairs (peer review), de façon générale, désigne un processus fondamental dans la recherche scientifique, à savoir celui qui consiste à apporter une revue critique sur le travail d’autres chercheur-euse-s en vue de sa publication. Appliquée à l’enseignement, ce type d’évaluation constitue une méthode intéressante pour impliquer les étudiant-e-s dans un processus d’amélioration continue de leurs travaux écrits ou oraux. Le principe est de soumettre une première version du travail des étudiant-e-s à d’autres étudiant-e-s, de fournir à ceux/celles-ci une liste de critères d’évaluation afin qu’ils/elles rédigent un feedback, et de demander aux étudiant-e-s évalué-e-s de tenir compte du feedback pour améliorer leur travail. L’objectif est en général triple:

  1. Il s’agit d’impliquer activement les étudiant-e-s pour qu’ils/elles comprennent les critères de qualité des travaux, en leur demandant d’utiliser eux-mêmes ces critères en tant qu’évaluateur-trice, ce qui peut contribuer à développer une attitude réflexive vis-à-vis de leurs propres travaux.
  2. Il s’agit de proposer à chaque étudiant-e un ou plusieurs feedbacks différents de celui de l’enseignant-e, ce qui augmente le nombre de commentaires et permet, on le suppose, d’améliorer davantage le travail après la réception du feedback.
  3. Si les étudiant-e-s sont nombreux-ses, cela permet de décharger l’enseignant-e qui peut alors plutôt superviser leur travail et aider à respecter les consignes d’évaluation et à comprendre les critères.

Deux chercheuses et un chercheur (Li, Liu & Steckelberg, 2009) se sont penchés récemment sur la question de ce que les étudiant-e-s apprennent suite à un exercice d’évaluation par les pairs. Pas mal d’études existent sur le sujet mais ce que les étudiant-e-s retirent d’une expérience d’évaluation par les pairs n’est pas très clair. Est-ce plus ou moins formatif de recevoir un feedback d’un-e autre étudiant-e ou d’en donner soi-même? Certaines études montrent par exemple que les étudiant-e-s ont parfois tendance à se méfier du feedback qu’ils reçoivent de leurs collègues et s’interrogent sur la légitimité et la pertinence de leurs remarques et commentaires. On peut donc se demander si cela les aide vraiment à améliorer leur travail. D’autres études soulignent l’importance de fournir aux étudiant-e-s des consignes et des critères d’évaluation clairs afin que leur feedback à leurs pairs soient le plus constructif et précis possible. De tels critères ne sont pas toujours fournis, ce qui rend beaucoup de commentaires d’étudiant-e-s peu utiles ou pertinents pour leurs collègues.

Li, Liu et Steckelberg (2009) avaient deux hypothèses de départ liées d’une part à la qualité du travail des étudiant-e-s en fonction du feedback donné aux autres et d’autre part de la qualité de leur travail en fonction du feedback reçu des autres.

Sans entrer dans les détails de l’expérimentation, les chercheur-euse-s ont mis en place un système d’évaluation anonyme de travaux écrits par les pairs via une plate-forme en ligne. La tâche pour les étudiant-e-s (en sciences de l’éducation) était de concevoir une WebQuest pour des élèves. Pour l’évaluation des travaux de leurs pairs (2 au hasard), il leur était demandé d’utiliser une grille d’évaluation de WebQuest souvent utilisée pour ce type de travaux. L’originalité de l’étude est que les chercheur-euse-s ont évalué avec la même grille d’analyse les feedbacks des étudiant-e-s  à propos des travaux de leurs pairs. Ceci a permis d’évaluer aussi la qualité des feedbacks produits.

Les résultats de l’étude permettent de mieux comprendre le processus d’évaluation par les pairs… Tout d’abord, les chercheur-euse-s n’ont pas trouvé de lien significatif entre la qualité du travail final des étudiant-e-s et la qualité du feedback qu’ils/elles avaient reçu. Donc même s’ils/elles reçoivent des feedbacks de qualité de la part de leurs collègues, ils/elles ne les utilisent pas vraiment pour améliorer leur travail. Ceci confirme que beaucoup d’étudiant-e-s se méfient du feedback de leurs pairs en croyant, à tort ou à raison, qu’ils/elles ne sont pas à même de juger de façon pertinente leur travail.

Les chercheur-euse-s ont ensuite trouvé un lien significatif entre la qualité du feedback donné et le travail des étudiant-e-s. En d’autres mots, quand un-e étudiant-e évalue le travail de ses pairs, plus cette évaluation est de qualité, plus il y a de chances que son propre travail soit de qualité. Ceci signifie que dans l’évaluation par les pairs, ce ne serait pas le fait de recevoir du feedback qui est le plus formateur mais plutôt le fait d’en donner. Ceci s’explique par le fait que les étudiant-e-s (dans cette expérience), devaient bien s’approprier les critères d’évaluation pour commenter le travail de leurs collègues et que cette appropriation leur a surtout servi à eux-mêmes pour augmenter la qualité de leur propre travail.

Ce qu’on peut retenir de ces résultats tient en plusieurs points:

  • Il est vraiment utile de fournir aux étudiant-e-s des critères clairs d’évaluation et des outils précis comme une grille d’évaluation pour s’auto-évaluer ou évaluer les travaux de leurs collègues.
  • Il est important d’aider les étudiant-e-s à fournir un feedback de qualité à leurs pairs, non pas pour que leurs pairs puissent en profiter (enfin si, quand même :-) ) mais surtout pour qu’eux-mêmes s’approprient bien les critères d’évaluation qu’ils devront remplir pour leur propre travail.
  • Par extension, entraîner les étudiant-e-s à s’auto-évaluer est une activité qui aura une influence sur leurs apprentissages.

Li, L., Liu, X., & Steckelberg, A. L. (2009). Assessor or assessee: How student learning improves by giving and receiving peer feedback. British Journal of Educational Technology, Early view.

Read Full Post »

J’avais annoncé en mai dernier que je travaillais avec deux collègues de Fribourg sur un document de quelques pages à propos du feedback aux étudiant-e-s. Ce document est à présent terminé et est en ligne sur le site du Centre de Soutien à l’Enseignement (PDF, 118Ko).

Voici ses objectifs:

Le feedback en enseignement désigne habituellement l’information qui est donnée par un-e enseignant-e à un-e étudiant-e suite à l’évaluation d’un travail écrit ou oral. Il s’inscrit ainsi dans le cadre de la relation pédagogique qui se construit entre enseignant-e et étudiant-e. Il peut se produire à différents moments de l’apprentissage et dans des situations très variées : la préparation d’un exposé oral ou écrit par l’étudiant-e, l’encadrement d’un travail de mémoire ou de thèse, une présentation orale, un examen blanc, l’apprentissage de manipulations en laboratoire, etc. [...]

Ce document s’adresse aux enseignant-e-s de l’enseignement supérieur, qu’ils/elles soient en charge de cours, TP, séminaires, etc. Son objectif est double : proposer une réflexion sur la pratique du feedback aux étudiant-e-s dans diverses situations d’interactions pédagogiques et suggérer des pistes d’action pour développer des pratiques de feedback centrées sur l’apprentissage. Par « feedback centré sur l’apprentissage », nous entendons un feedback :

  • qui vise à donner l’occasion à l’étudiant-e de prendre du recul par rapport à un travail qu’il/elle a réalisé dans le but de l’améliorer.
  • qui aide à préparer une évaluation finale (ou sommative).
  • qui donne des clés à l’étudiant-e pour progresser par la suite de façon plus autonome.

Nous avons produit aussi une version longue de ce document. Cette version contient une section spéciale à propos de l’utilisation de grilles d’évaluation critériées pour fournir des feedbacks aux étudiant-e-s.

Cette collaboration avec le Centre de didactique universitaire de l’Université de Fribourg en amènera très certainement d’autres, sur d’autres sujets. A suivre donc…

Read Full Post »

Dans le cadre de ma fonction de conseil, je suis amené de temps en temps à venir dans une classe observer le déroulement d’un cours ou d’un séminaire. Voici les quelques étapes que je suis. Un livre qui m’a bien aidé pour trouver des dimensions pertinentes d’observation et pour pratiquer un feedback constructif et formatif est celui de Marie-Cécile Wagner (1988), Pratique du micro-enseignement. Mes observations jusqu’à présent se sont déroulées avec des assistant-e-s dans deux contextes différents: une demande spontanée de la part d’un-e assistant-e ou une observation dans le cadre du module de suivi de la formation pédagogique que nous organisons ici à l’UNIL pour les assistant-e-s, il s’agit alors d’un travail d’application de la formation dans un cours ou séminaire.

  1. Je commence par organiser une réunion de préparation (30-45’). La personne décrit :
    • Son contexte (étudiant-e-s, organisation, objectifs du cours/TP/séminaire, modes d’évaluation, stratégies d’enseignement, etc.).
    • Des questions qu’elle se pose ou des problématiques qu’elle rencontre.

    Nous décidons alors ensemble des objectifs de l’observation et du moment à filmer pendant le cours/TP/séminaire (30 minutes normalement – en général ça n’apporte pas grand chose de plus de filmer davantage). Nous décidons aussi de la date du debriefing (pas trop longtemps après l’observation, moins d’une semaine si possible).

  2. Observation filmée en salle de classe (film de 30’). Les cours durent en général 2 X 45′. Ma fiche d’observation (PDF, 36 Ko) est organisée en 4 colonnes: temps, actions de l’enseignant-e, actions des étudiant-e-s, notes à propos des ressources et du matériel utilisés.
    A la fin de la séance, un petit questionnaire (PDF, 36 Ko) pour préparer le debriefing est donné à la personne filmée. Elle le remplit en visionnant le film et me le renvoie par email avant le debriefing pour préparer la discussion. A ce niveau, plusieurs choses que je fais:

    • il est possible que la personne n’aime pas se revoir en vidéo. Je propose alors qu’on regarde ensemble le film lors du debriefing mais elle remplit quand même le questionnaire.
    • je ne donne pas mes notes d’observation, elles me servent uniquement pour préparer de mon côté la séance de debriefing.
  3. Je prépare le debriefing sur base des questions et des représentations de la personne filmée qu’elle a rédigées dans le questionnaire (documentation, idées d’activités à tester, conseils spécifiques, etc.).
  4. Séance de debriefing : discussion sur base des questions posées.
    • Analyse de l’observation : qu’est-ce qui s’est passé ? On reprend ici les réponses au questionnaire et on discute sur base des mes observations.
    • Prise de décision : par la suite, que va changer ou adapter la personne dans son cours/TP/séminaire avec ses étudiant-e-s ?

    Si besoin, je donne de la documentation ou fais un résumé d’une demi page de la discussion de debriefing. Pour le feedback, je n’aime pas trop me mettre en avant. Il me semble que c’est d’abord l’avis de la personne qui compte. Et surtout, l’objectif est que la personne arrive à faire l’analyse elle-même pour éventuellement par la suite réfléchir à sa pratique seule.

  5. Option : une seconde séance d’observation a lieu pour observer les nouveaux éléments discutés qui ont été éventuellement testés avec les étudiant-e-s.

Wagner, M. (1988). Pratique du micro-enseignement. Bruxelles: De Boeck. 

Read Full Post »

Actuellement impliqué dans un travail préparatoire à la rédaction d’un memento sur le feedback aux étudiant-e-s, j’ai lu le texte de cette conférence de D. Nicol (2007). L’intérêt de ce texte est de clairement lier évaluation formative et feedback, ce qui n’est pas toujours le cas dans cette littérature. Nicol rappelle ainsi qu’un feedback a pour but d’aider les étudiant-e-s à atteindre des objectifs d’apprentissage fixés au préalable et qu’il devrait donc s’y référer en leur donnant des indications claires sur le parcours qu’il reste à accomplir pour les atteindre. Ceci peut paraître trivial :-) mais quand je vous apprendrai qu’il arrive à l’université que des cours d’expression écrite soient évalués au moyen d’examens oraux, vous vous direz probablement comme moi que certaines évidences sont parfois bonnes à rappeler.

Good assessment and feedback practices should:

  1. Help clarify what good performance is (goals, criteria, standards). To what extent do students in your course have opportunities to engage actively with goals, criteria and standards, before, during and after an assessment task?
  2. Encourage ‘time and effort’ on challenging learning tasks. To what extent do your assessment tasks encourage regular study in and out of class and deep rather than surface learning?
  3. Deliver high quality feedback information that helps learners self-correct. What kind of teacher feedback do you provide – in what ways does it help students self-assess and self-correct?
  4. Encourage positive motivational beliefs and self-esteem. To what extent do your assessments and feedback processes activate your students’ motivation to learn and be successful?
  5. Encourage interaction and dialogue around learning (peer and teacherstudent. What opportunities are there for feedback dialogue (peer and/or tutor-student) around assessment tasks in your course?
  6. Facilitate the development of self-assessment and reflection in learning. To what extent are there formal opportunities for reflection, self-assessment or peer assessment in your course?
  7. Give learners choice in assessment – content and processes. To what extent do students have choice in the topics, methods, criteria, weighting and/or timing of learning and assessment tasks in your course?
  8. Involve students in decision-making about assessment policy and practice. To what extent are your students in your course kept informed or engaged in consultations regarding assessment decisions?
  9. Support the development of learning communities. To what extent do your assessments and feedback processes help support the development of learning communities?
  10. Help teachers adapt teaching to student needs. To what extent do your assessment and feedback processes help inform and shape your teaching?

Les quelques conseils de Nicol ci-dessus mériteraient d’être mis en relation avec des exemples de grilles critériées d’évaluation qui permettent de rendre les évaluations plus valides et d’automatiser un peu le feedback. En anglais, c’est plutôt sous le terme rubrics (ou scoring scales) que l’on rencontre ce type d’outil d’évaluation et de feedback. Avant d’aborder cette question dans une prochaine note, voici une série d’exemples de "rubrics" adaptés aux cours universitaires, proposés par la Indiana University Kokomo. Il s’agit d’outils pour évaluer différentes productions souvent demandées aux étudiant-e-s dans différentes disciplines.

Nicol, D. (2007). Principles of good assessment and feedback: Theory and practice. Dans REAP International Online Conference on Assessment Design for Learner Responsibility, 29th-31st May, 2007. Retrouvé de http:/www.reap.ac.uk/public/Papers/Principles_of_good_assessment_and_feedback.pdf (PDF, 135 Ko).

Read Full Post »

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 293 autres abonnés