Outils personnels
Vous êtes ici : Accueil Symposiums Entre intentions institutionnelles et situations de formation : quelle dynamique dialogique possible ? Le cas des Hautes écoles spécialisées et des Universités de métiers Tensions entre dispositif d’évaluation des compétences et modalités de mises en œuvre par les acteurs - Le cas de l’IUFM de Grenoble
Navigation
« Mai 2022 »
Mai
LuMaMeJeVeSaDi
1
2345678
9101112131415
16171819202122
23242526272829
3031
 
Actions sur le document

Tensions entre dispositif d’évaluation des compétences et modalités de mises en œuvre par les acteurs - Le cas de l’IUFM de Grenoble

Résumé: L’IUFM de Grenoble, anticipant sur le nouveau cahier des charges national pour la formation des enseignants, a mis en place depuis septembre 2006 un nouveau dispositif d’évaluation des compétences des professeurs d’école stagiaires. Ce dispositif met en œuvre une évaluation « filée » du développement des compétences professionnelles observées en situation d’exercice du métier, en regard d’un référentiel. Il vise un suivi de l’évolution de chaque stagiaire, qui permette à la fois des régulations individualisées et l’élaboration d’une évaluation terminale détaillée en regard des compétences du référentiel et qui rende compte aussi de l’évolution du stagiaire ; une évaluation qui s’inscrive dans une dynamique d’évolution. Le changement de pratiques et de conceptions en matière d’évaluation de la formation professionnelle, amorcé par cette expérience, est important. Pour nous rendre compte de son appropriation par les acteurs et des difficultés ou dysfonctionnements en vue de le réguler, nous avons réalisé une enquête auprès des professeurs d’école stagiaires et de leurs formateurs d’un même site IUFM. Les résultats montrent que les acteurs se sont bien approprié ce dispositif qui a contribué à un fonctionnement plus collectif, des évaluations plus précises et des régulations individualisées. Ils valident le choix que les évaluateurs soient les formateurs connaissant le mieux les stagiaires. Les difficultés se situent surtout au niveau de la rédaction des rapports d’évaluation et un dysfonctionnement apparaît au niveau du rôle du tuteur. Mais surtout, l’enquête met en évidence des tensions entre prescriptions et utilisations singulières et divergentes ou trop « à la lettre », et alors caricaturales, des outils d’évaluation.

Mention complète de la source: Campanale, F. & Gondrand, H., (2008), Tensions entre dispositif d’évaluation des compétences et modalités de mises en œuvre par les acteurs - Le cas de l’IUFM de Grenoble. Actes du 20e colloque de l'ADMEE-Europe, Université de Genève. [https://plone.unige.ch/sites/admee08/symposiums/j-s5/j-s5-2]

Tensions entre dispositif d’évaluation des compétences et modalités de mises en œuvre par les acteurs - Le cas de l’IUFM de Grenoble

Françoise Campanale et Hélène Gondrand, IUFM Grenoble

Introduction : Contexte et problématique

Le ministère français de l’éducation nationale a promulgué un nouveau cahier des charges pour la formation des enseignants, accompagné d’un nouveau référentiel de dix compétences, opérationnel en 2007-2008. L’évaluation de ces compétences repose sur l’élaboration d’un dossier de compétences. L’IUFM de Grenoble, anticipant sur ce cahier des charges, a mis en place depuis septembre 2006 un nouveau dispositif d’évaluation des compétences des professeurs d’école stagiaires. Dans une précédente communication, au Luxembourg, nous avons présenté ce dispositif d’évaluation « filée » des compétences manifestées en situation d’exercice du métier ainsi que les références qui le fondent (Campanale & Gondrand, 2006).

 

La présente communication traite des effets de ce dispositif, mis en œuvre depuis un an, sur les acteurs, à la fois professeurs des écoles stagiaires et formateurs. L’enquête qui a été menée visait à fournir des éléments de réponses aux questions suivantes :

-        Comment les acteurs se sont-ils approprié ce dispositif d’évaluation par compétences ? ;

-        Quels ont été les effets de ce dispositif en termes de régulation sur la formation des stagiaires au niveau collectif et individuel ?;

-        Quels en ont été les effets sur les pratiques d’évaluation des formateurs ?

La communication s’efforcera de mettre aussi en évidence ce qui est en tension entre la préconisation et la mise en œuvre par les acteurs.

1. Cadre théorique du dispositif d’évaluation des stages

1.1 Les définitions de la compétence

Elles sont foison. Nous en retenons des caractéristiques consensuelles :

-        Il ne s’agit pas d’une somme de savoirs de différents types mais d’un processus qui combine et mobilise des ressources internes, voire externes, de différents types et qui permet à un sujet de gérer des situations professionnelles complexes et événementielles (Perrenoud, 1999,), « un savoir agir responsable et validé » (Le Boterf, 2000) ;

-        La compétence est de l’ordre de la potentialité, elle se développe et se manifeste à travers une formation ad hoc et/ou à travers l’exercice d’une activité. La compétence est un processus dynamique, elle est en constante évolution, en fonction des situations dans lesquelles elle est sollicitée (Pastré, 1999, 2004) ;

-        Le contexte favorise plus ou moins l’expression de la compétence (Meignant, 2003).

1.2 Evaluer « par compétences », en formation professionnelle initiale

L’évaluation par compétences nous semble fondamentalement dynamique, plurielle et partagée, axée sur le principe de pertinence.

Dynamique, car :

-        Essentiellement formative du fait qu’en formation c’est la construction progressive des compétences qui est évaluée ;

-        Mettant en tension du contrôle pour régulariser et du questionnement du sens pour évoluer et faire évoluer (Bonniol & Vial, 1997 ; Vial, 2006) ;

-        Débouchant sur un sommatif conçu comme bilan d’étape dans une évolution qui va se poursuivre (Scallon, 2004), notamment au cours de la formation initiale continuée (50 heures y sont consacrées l’année suivante, première année d’exercice comme titulaire).

Plurielle, car s’effectuant :

-        Dans différentes situations – à travers la réalisation de productions en lien avec l’activité professionnelle à l’institut de formation, à travers l’exercice de l’enseignement en classe, à travers d’autres situations impliquées par l’exercice du métier comme par exemple la conduite d’un projet d’actions en partenariat avec des collectivités extra-scolaires – ;

-        Par différents évaluateurs – des formateurs de différents statuts et de différentes disciplines, proches du stagiaire car cette proximité permet le suivi de l’évolution du stagiaire, et aussi le stagiaire lui-même qui par la co-évaluation (Allal, 2002) développe réflexivité et autonomie dans sa formation ;

-        Sur différentes objets – des produits comme par exemple des scénarios pédagogiques, et aussi des processus comme analyser une situation / analyser sa pratique et déterminer des stratégies (Crahay & Detheux, 2005) –.

Axée sur le principe de pertinence, en priorité à ceux de validité et de fiabilité (De Ketele & Gérard, 2005), car, notre contexte de formation en alternance ne permet pas de maîtriser les situations de stage et c’est en situation d’évaluation même, situation chaque fois singulière, que l’évaluateur a à déterminer ce qu’il est pertinent d’observer et d’attendre en lien avec le référentiel.  Exercice difficile qui réclame un haut degré d’expertise, qui, compte tenu du changement de contexte à chaque stage pour le même stagiaire, nécessite de privilégier des axes d’évolution plutôt qu’une évaluation détaillée de l’activité observée.

2. Fonctionnement du dispositif d’évaluation des stages

Rappelons, qu’en France, la formation initiale professionnelle des professeurs d’écoles est une formation en alternance, l’année qui suit la réussite au concours de recrutement, avec 400 heures de formation à l’IUFM et 57 jours de stages en responsabilité dans des classes. A partir de la rentrée 2006, les stages s’organisent différemment des années précédentes, avec 30 jours de stage filé (1 jour d’enseignement par semaine dans la même classe tout au long de l’année) et 2 stages groupés de 3 semaines chacun, dans une école et un cycle différent. Cette nouvelle organisation des stages a conduit à un nouveau dispositif d’évaluation, qui repose sur les principes suivants :

-        L’évaluation est confiée à une équipe de formateurs de statuts et de disciplines différents qui assure également la formation pour un groupe de professeurs d’école stagiaires donné ;

-        Les procédures d’évaluation ont été remises à plat et explicitées (visites, entretien, rapport, bilan individuel du stagiaire) ; des outils communs ont été élaborés (grille de lecture commune reprenant les grandes compétences du référentiel et les déclinant en grands indicateurs, trame du rapport de visite, trame des avis intermédiaires du conseil de formation, trame d’un avis terminal) ;

-        Une instance pilote, le conseil de formation, qui regroupe l’ensemble des formateurs- évaluateurs d’un groupe de stagiaires,  se réunit à l’issue de chacune des séries de visites (5) et prononce un avis sur les compétences en cours de construction du professeur stagiaire ;

-        Un suivi-accompagnement individuel du développement des compétences professionnelles a été mis en place :   le tutorat. Chaque formateur de l’équipe peut être tuteur d‘un stagiaire du groupe de référence, mais il n’évalue pas son tutoré en stage, car le rôle qui lui a été attribué, outre de conseil, est celui de médiateur des évaluations, d’accompagnateur de l’autoévaluation, et non d’évaluateur direct.

Pour valider et/ou réguler le fonctionnement de ce nouveau dispositif, les outils et les procédures,  nous avons procédé à une enquête[1] auprès des acteurs de l’évaluation des stages.

3. Méthodologie de l’enquête auprès des acteurs de l’évaluation des stages

Les questions qui ont orienté l’enquête portent sur le ressenti des acteurs au niveau de la mise en œuvre et des effets attendus. Comment les acteurs se sont-ils approprié ce dispositif d’évaluation par compétences ?  Quels ont été les effets de ce dispositif en termes de régulation sur la formation des stagiaires au niveau collectif et individuel ? Quels sont les dysfonctionnements éventuels, les réticences, les difficultés ?  Quelles sont les dimensions à réguler / à faire évoluer ?

 

Nous avons choisi de restreindre notre enquête aux acteurs (formateurs et stagiaires) d’un même site de l’IUFM : celui de Grenoble, le plus important en nombre de stagiaires (239 professeurs d’école stagiaires sur un total de 538 répartis dans les cinq sites de l’académie). L’harmonisation étant plus forte au niveau d’un site qu’au niveau académique lors de cette première expérience,  nos questions feraient référence pour eux aux mêmes outils et procédures.

 

Le questionnaire à destination des stagiaires, à questions fermées,  a été donné à renseigner individuellement sous format papier mi-mai 2007. Le questionnaire à destination des formateurs (questions fermées et quelques-unes ouvertes) comportait des questions identiques ou en miroir de celles du questionnaire stagiaires (sur les caractéristiques du dispositif et sur les rôles), plus quelques autres sur les difficultés rencontrées et les améliorations à apporter. Il a été donné à renseigner individuellement en ligne, en juin, et finalement, devant la difficulté pour recueillir des réponses, redonné sous format papier.

Pour approfondir ou éclairer certains résultats tirés des questionnaires, des entretiens semi-directifs, individuels, portant sur la mise en œuvre du dispositif, ont été conduits avec chacun des coordonnateurs des équipes de formateurs.

4. Principaux résultats

Sur 239 professeurs d’école stagiaires (PE) du site de Grenoble, 204 ont rendu le questionnaire rempli, soit un retour de 85%. Les formateurs concernés étaient au nombre de 60 : 30 formateurs de différentes disciplines exerçant à temps plein à l’IUFM (Professeurs d’IUFM ou PIUFM), et 30 Professeurs d’Ecole Maîtres-Formateurs (PEMF), praticiens experts intervenant dans la formation pour un tiers de leur temps de service. Sur les 60, 28 ont répondu au questionnaire (soit 47%).

 

On peut penser que la différence du nombre de retours entre stagiaires et formateurs tient au fait que les formateurs ont été sollicités alors qu’ils étaient très mobilisés par les activités évaluatives de la fin de l’année et qu’ils ne sont pas familiarisés avec le maniement de documents en ligne. Nous ne détaillerons pas les différents résultats fournis par les traitements de toutes les réponses. Nous, nous centrerons sur ceux qui indiquent de grandes tendances et mettent en évidence des tensions.

4.1 Un dispositif connu et reconnu par une majorité d’acteurs

La grande majorité des acteurs (78% des stagiaires et 75% des formateurs) dit savoir qu’il y a eu un changement du dispositif d’évaluation. Leurs  réponses indiquent qu’ils se sont approprié les caractéristiques du nouveau dispositif, car ces mêmes pourcentages de stagiaires et formateurs cochent les caractéristiques pertinentes dans une liste à erreurs (par ex. : la progression du stagiaire au fil des stages compte dans l’évaluation terminale,...).  

 

La perception de ce dispositif par les stagiaires est plutôt positive. Ils sont 58% à trouver que l’évaluation continue au fil des stages est plutôt une aide pour eux et 22% que c’est à la fois une aide et une contrainte. Au niveau des formateurs, 68% estiment le changement positif ou nécessaire, un seul le juge négatif, les autres ne s’expriment pas. Notons que 14% seulement des formateurs, qui ont répondu, ont participé à la conception du dispositif et des outils. Pourtant, 58% d’entre eux disent s’être adaptés à ce dispositif plutôt facilement. Les 17%, qui disent avoir eu beaucoup de difficultés, signalent que c’est au niveau de la rédaction des rapports de visite : ils soulignent la difficulté à  se prononcer sur l’acquisition de compétences par un stagiaire en fonction d’items exprimant des comportements attendus, à l’issue d’une observation courte pendant laquelle il faut distinguer des manifestations de compétences en interaction. Un formateur exprime la crainte que l’évaluation par compétences ne permette pas d’apprécier l’originalité du stagiaire et même l’empêche de s’exprimer.

4.2 Le dispositif contribue à un fonctionnement plus collectif et à des régulations individualisées

Le dispositif est jugé utile par les formateurs en premier pour harmoniser entre formateurs les références et les outils d’évaluation, en second comme facilitant la mise en évidence de l’évolution du stagiaire, enfin comme permettant une évaluation plus précise et l’identification des compétences à renforcer pour proposer des compléments de formation.

 

Les stagiaires confirment que le dispositif a généré de la régulation individualisée : 28% disent qu’une modalité d’aide leur a été proposée par le conseil de formation (un stage en tutelle dans la classe d’un maître formateur pour 72% de ces 28%, et/ou un stage de travail vocal et corporel pour 36%). Ce pourcentage correspond globalement au pourcentage de stagiaires qui au cours de l’année, à un moment ou à un autre, ont quelques difficulté. Cette aide est bien perçue car elle s’ancre dans l’entretien formatif qui a eu lieu lors de la visite et qui est mentionné comme très important pour la formation.

 

Au niveau des modules obligatoires, 24% des formateurs disent avoir modifié la formation prévue à la suite d’un conseil de formation, ce qui témoigne d’une volonté d’ajustement de la part des formateurs et de l’impact des conseils de formation.

4.3 Les formateurs IUFM conseillent plus que les autres visiteurs-évaluateurs

Presque la moitié des formateurs (48%) estiment assurer à la fois les deux fonctions d’évaluation et de conseil lors des visites en classe. Toutefois 14% affirment ne faire que du conseil.  Les formateurs IUFM disent craindre d’être ressentis plus comme contrôleurs que comme conseillers. Or, les stagiaires les perçoivent (sur une échelle de 4) à la fois contrôleurs (69%)[2] et conseillers (60%), alors qu’ils perçoivent les maîtres formateurs nettement plus contrôleurs (76%) que conseillers (59%). Quant aux conseillers pédagogiques de circonscription, qui travaillent auprès de l’inspecteur et qui avaient mission d’une visite de conseil, ils sont perçus à 63% comme contrôleurs et seulement à 36% comme conseillers.

 

Autrement dit, le formateur que connaît le mieux le stagiaire et qui le connaît le mieux exercerait davantage un rôle de conseil que des maîtres formateurs, qui lui sont moins proches, et que le conseiller pédagogique, qui est extérieur à sa formation.  Cela valide le choix de confier l’évaluation des stagiaires à ceux qui les forment et non pas à d’autres formateurs.

4.4 Le tuteur : plus un rôle de conseiller pour la pratique que médiateur de l’évaluation

Le tuteur est perçu surtout comme un conseiller pour la pratique de classe (67%) et comme aidant à analyser sa pratique de classe (60%). Assez curieusement, les tuteurs disent plus aider à analyser (57%) que conseiller (43%). En revanche, 42% seulement des tuteurs pensent jouer le rôle, qui était attendu d’eux, de médiateur des évaluations. Et, 55% des stagiaires disent que le tuteur, s’il leur communique le feed back du conseil de formation, n’aide pas beaucoup à comprendre les évaluations (cet item n’est coché que par 27% des stagiaires), ni à faire des choix dans la formation (18%). On a là un dysfonctionnement.  

Conclusion : un dispositif qui fonctionne sous  « hautes » tensions

Si des aménagements s’avèrent nécessaires au niveau des outils (notamment la grille de lecture pour l’évaluation en stage), les acteurs dans l’ensemble se sont approprié positivement le dispositif. Celui-ci provoque les effets attendus d’harmonisation relative des références, de développement d’une culture commune entre formateurs, de régulations individualisées, de précision et de clarification au niveau  des évaluations[3]. Toutefois, les différents rôles de formateur, d’évaluateur, de conseiller ne sont pas encore assurés de façon bien stable (le peuvent-ils d’ailleurs ?). On constate un dysfonctionnement au niveau du rôle du tuteur. Le rôle de tuteur, acteur-clé du suivi et médiateur de l’évaluation sera à repréciser : on peut envisager élaboration collective du cahier des charges de la fonction de tuteur, une formation des tuteurs avec analyse de pratiques de tutorat et des apports sur l’évaluation par compétences.

 

Terminons par les trois sortes de tensions que l’enquête a révélées au travers des expressions libres (questions ouvertes et entretiens). Nous entendons tension comme un état nécessaire, mais évolutif, des liens ou relations entre éléments d’un système pour en maintenir la cohésion et en assurer un fonctionnement. Sans tension, pas de dynamisme, trop de tension, rupture et risque d’éclatement du système. La tension est alors à la fois la force qui résiste et qui présente pourtant une souplesse suffisante pour permettre des réglages, des ajustements, comme la corde d’un violon a besoin d’être sous tension, et cette tension accordée, pour fournir un son juste sous l’archet. Ces tensions ont réactualisé des fondamentaux de l’évaluation.

 

Une tension inhérente au processus de l’évaluation explicite. Elle s’est manifestée au travers des craintes de formateurs face à la responsabilité de l’évaluation. La nécessité d’expliciter son évaluation par écrit, donc avec précision, a remis en lumière la tension de l’évaluation entre des références exprimées au travers d’outils (référentiels de compétences, grilles de critères) jamais parfaitement transparents, ni complètement congruents aux situations, et le réel multiple et varié à saisir et évaluer à travers eux. C’est de cette tension que naît l’interprétation qui est au cœur de l’évaluation, toujours incertaine, sans achèvement possible. Evaluer n’est pas une opération simple et mécanique de confrontation entre un référé et un référent. C’est plutôt, comme le souligne Allal, dans sa conférence introductive à ce colloque, une combinaison d’informations hétérogènes mises en relation avec des références dont la pertinence est questionnée. Cette tension, on le sait bien, n’est supportable que si l’évaluateur accepte de relativiser son jugement et le partager.

 

Une tension entre contrôle et évaluation, entre mono et pluri-référentialité (Ardoino & Berger, 1989 ; Ardoino, 1993). Le travail d’harmonisation des procédures et des outils, qui s’est fait pour ce dispositif, s’apparente à une démarche-qualité. Grilles communes, trames de rapport contraignantes avec leurs risques d’enfermement dans des jugements stéréotypés sont en tension avec ce qui est l’enjeu d’une évaluation signifiante du développement professionnel : la mise en évidence de la singularité d’une évolution dans la professionnalisation. L’évaluation ne peut alors se limiter à la mise en évidence de ce qui est maîtrisé et de ce qui ne l’est pas encore, se limiter au contrôle de la progression du stagiaire.  L’évaluation réclame de l’échange interpersonnel, du dialogue entre évaluateur et évalué. Cette tension, entre contrôle nécessaire mais non suffisant, et évaluation à la recherche du sens (Vial, 2006), entre conformation et formation, n’est supportable que si l’évaluateur sait « jouer » avec les grilles, avec la réglementation commune, l’adapter aux situations, s’en affranchir le cas échéant pour s’autoriser une interprétation « hors cadre », en regard d’autres références qu’il proposera comme plus pertinentes à la situation.

 

Une tension identitaire perçait lors de l’enquête. Elle se confirme cette année 2007-2008 avec la mise en œuvre du nouveau cahier des charges des IUFM. L’évaluation des compétences en construction, par son caractère pluriel, son caractère « filé », nécessite une multiplicité d’outils à élaborer, à partager, à utiliser. Dans notre expérience : une grille de lectures des compétences observables l’année de formation professionnelle initiale (que ce soit en stage ou à l’institut de formation), autant de trames pour rendre compte de l’évaluation que de situations différentes d’évaluation (rapport/s de visite, avis du conseil de formation, avis d’un ou plusieurs formateurs sur des productions réalisées à l’institut, avis terminal du conseil de formation) et un cadrage des procédures d’évaluation pour chaque situation. Cette surcharge d’outils à renseigner risque de faire basculer l’évaluation dans une gestion bureaucratique, l’évaluateur, devenant agent, technicien de l’évaluation, spécialiste du renseignement de grilles, alors que la culture professionnelle enseignante est particulièrement attachée à la qualité d’auteur. Le formateur veut être auteur de sa formation et de l’évaluation qu’il met en œuvre.  Cela s’accompagne mal d’une « mallette » d’outils communs, tout prêts à l’emploi. Au-delà de la surcharge liée au nombre d’outils, perce un désarroi : Pourquoi une telle instrumentation ? L’institution ne fait-elle plus confiance au jugement du formateur ?

 

Sont alors en tension deux figures identitaires :

-        le formateur appartenant à une institution qui le missionne pour former et évaluer et auquel elle fait confiance, sans lui réclamer une instrumentation lourde ;

-        le formateur, appartenant à une équipe, au sein d’un organisme de formation qui est soumis à un cahier des charges exigeant une évaluation très instrumentée.

 

Cette tension n’est supportable que si, à côté des procédures formelles, des instances pour la parole évaluative existent dans l’établissement de formation (conseil de formation, tutorat), si le stagiaire est impliqué dans l’évaluation (Campanale, 2007) avec un formateur en posture d’ami critique (Jorro, 2006), si en regard des hétéro-évaluations par les formateurs, il a un espace d’expression, d’élaboration d’un portfolio professionnel personnel.

Références

Allal, L. (2002). L’entretien de co-évaluation en situation de stage. Questions vives, 1, 11-16.

Ardoino, J. et Berger, G. (1989). D'une évaluation en miettes à une évaluation en actes. Le cas des universités. Paris : Matrice-Andsha.

Ardoino, J. (1993). L'approche multiréférentielle (plurielle) des situations éducatives et formatives. Pratiques de formation, n˚25-26, 15-34.

Bélair, L. (2006). L’évaluation au quotidien : conjuguer processus et produit. Mesure et évaluation ne éducation, Vol. 29, n°1, 19-30.

Bonniol, J.J. & Vial, M. (1997). Les modèles de l’évaluation – Textes fondateurs avec commentaires. Paris-Bruxelles : De Boeck.

Campanale, F.  (2007). Analyse réflexive et autoévaluation dans la formation des enseignants : Quelles relations ? (pp. 55-75). In A. Jorro, Evaluation et développement professionnel, Paris : L’Harmattan.

Campanale, F. & Gondrand, H. (2006). Transformation d’un dispositif d’évaluation des stages professionnels : inclure le certificatif dans un processus formatif. 19° colloque international de l’Adméé-Europe, « L’évaluation au 21° siècle : vers de nouvelles formes, modélisations et pratiques  de l’évaluation ». Université du Luxembourg : 11-13 septembre 2006, consultable à : http://jemacs.uni.lu/index.php/JEMACS/article/viewFile/18/17.

Crahay, M. & Detheux M. (2005). L’évaluation des compétences, une entreprise impossible ? Mesure et Evaluation en Education, 2005, Vol. 28, n°1, 57-78.

De Ketele, J.M. & Gérard, F.M. (2005). La validation des épreuves d’évaluation selon l’approche par les compétences.  Mesure et Evaluation en Education, 2005, Vol. 28, n°3, 1-26.

Jorro, A. (2006). Devenir ami critique. Mesure et évaluation ne éducation, Vol. 29, n°1, 31-44.

Le Boterf, G. (2000). Construire les compétences individuelles et collectives. Paris : Éditions d’organisation.

Meignant, A. (1997). Manager la formation. Paris : Editions Liaisons.

Pastré, P. (1999). Travail et compétences : un point de vue de didacticien. Formation emploi, n° 67, juil.-sept. 1999, 109-125.

Pastré, P. (2004). L'ingénierie didactique professionnelle. In Carré Philippe & Caspar Pierre (Ed.), Traité des sciences et des techniques de la formation (pp. 465-480). Paris : Dunod.

Perrenoud, P. (1999). L’école saisie par les compétences. Intervention au colloque de l’Association des cadres scolaires du Québec, consultable : http://www.unige.ch/fapse/SSE/teachers/perrenoud/php_main/php_1999/1999_03.html

Scallon, G. (2004). L’évaluation des apprentissages dans une approche par compétences. Bruxelles : De Boeck.

Vial, M. (2006). Les relations entre formation et évaluation : perspectives de recherches. Mesure et évaluation en éducation, vol. 29, n° 1, 81-97.

 



[1] Une étudiante du master professionnel en sciences de l’éducation de l’UPMF de Grenoble, Louiza Koutra, a travaillé avec nous et s’est chargée du recueil et du traitement des données.

[2] Pourcentage de fois où les items « surtout » et « plutôt contrôleur » sont cochés. 

[3] Echanger les rapports d’évaluation entre évaluateurs y a fortement contribué.