Canalblog
Suivre ce blog Administration + Créer mon blog
Formation Continue du Supérieur
12 mars 2014

Restitution aux parties prenantes et publicité - Rapport "L'évaluation de la recherche et de l'enseignement supérieur"

La Documentation Française - la librairie du citoyenLe rapport "L'évaluation de la recherche et de l'enseignement supérieur" présente les principes de l'évaluation par le HCERES, les modalités d'élaboration et d'organisation des évaluations, l'organisation de la future Haute autorité indépendante. Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".
Restitution aux parties prenantes et publicité
(1) Le rapport

L'évaluation doit faire l'objet d’un rapport circonstancié rédigé et signé collégialement par les membres du comité d’évaluation, sous la responsabilité de son président, avec le contreseing du HCERES . Ce rapport doit être conçu dans l’objectif principal de fournir des recommandations claires et constructives aux évalués et à leurs tutelles. Il doit être construit sur des argumentaires clairs et reposer le plus possible sur des données objectives (effectifs, productions, contrats, nombre/taux de diplômés, évolution temporelle...). Ses conclusions sur les différents items évalués devront être circonstanciées et ouvrir le cas échéant des pistes d’amélioration. La présence d’une telle liste d’items (référentiel ou grands critères d’évaluation) est très utile, car elle permet d’apporter un cadre d’harmonisation entre les évaluations réalisées par des comités différents. Dans le cas où des questions précises auraient été posées par les tutelles, le rapport devra bien entendu éclairer les parties prenantes sur l’appréciation qu’a pu en faire le comité d’évaluation. Le rapport en revanche ne devrait pas être prescriptif.
Il s’agit là de conserver la distinction entre l’évaluation, d’un côté, et la ou les décisions de politique scientifique ou pédagogique qui appartiennent in fine aux instances du laboratoire, du diplôme, de l’établissement et à leurs tutelles, de l’autre. Le rôle du comité d’évaluation est d’apporter à un instant donné un regard extérieur indispensable sur une structure de recherche ou de formation. Son rapport sera un des éléments essentiels pour les décisions futures, mais au travers d’une grille de lecture et d’un ensemble de contraintes propres à chaque partie prenante. Il est parfaitement envisageable qu’au vu du même rapport deux établissements tutelles d’une même structure puissent prendre des arbitrages sensiblement différents. Un des points ayant suscité un débat animé dans la communauté concerne les modalités actuelles de production des rapports définitifs d’évaluation, en particulier pour les laboratoires, il s’agit de leur éventuelle réécriture ou « lissage ». Ceci a pu être perçu comme un manquement au principe de transparence. Il existe une demande forte pour que le rapport du comité d’évaluation soit effectivement produit par lui seul et qu’il en endosse la responsabilité, le Haut-Conseil étant quant à lui garant de la procédure.
Recommandation : Il faut respecter le principe de séparation entre évaluation et décision. Le rapport d’évaluation doit refléter l’avis motivé du comité. Il n’a pas a être prescriptif et empiéter sur les décisions des tutelles.
Recommandation : Le rapport d’évaluation doit être contresigné a minima par le président et si possible par tous les membres du comité d’évaluation qui en assument ainsi le contenu.
Dans tous les cas, un droit de réponse est laissé aux instances évaluées. Cette phase permet d’expurger le rapport d’erreurs factuelles éventuelles, mais aussi de donner une interprétation complémentaire aux observations faites par le comité.
(2) La notation
Pour l’évaluation des laboratoires, la question de la production d’une notation quantitative unique ou multi- critères (A + , A, B, C...) est certainement l’une des plus controversées et des plus sensibles au sein de la communauté. L’instauration initiale de cette note répondait entres autres à un besoin par les tutelles d’avoir une grille pour décider des arbitrages en matière d’allocation des moyens (dotations, postes, surfaces...). Avant la mise en place de l’AERES, certains établissements utilisaient d’ailleurs des systèmes analogues en interne et ont parfois continué à le faire en parallèle de la notation par l’AERES.
La notation mono ou multi-critères a des avantages et des inconvénients dont certains se sont exacerbés au cours du temps, pour finir par cristalliser le mécontentement d’une partie de la communauté contre le système actuel. Compte-tenu du caractère sensible de ce point, il nous est apparu utile de les énumérer de manière explicite.
Avantages
• La transparence : Comme il a été dit ci-dessus, certains établissements avaient leur propre grille de notation, mais celle-ci était souvent interne et non-publique. A l’époque, des critiques d’opacité ou de clientélisme ont été formulées. La notation « ouverte » limite fortement ce genre de risque puisque tous les acteurs du système ont connaissance des notes.
• La diffusion d’une culture de l’amélioration : Pour certaines structures peu habituées à l’évaluation, la notation a eu indubitablement un effet bénéfique de remise en question (mais parfois au prix d’une forme de traumatisme très réel).
• La simplicité opérationnelle : pour les tutelles qui ne sont pas dotées de moyens de suivi rapproché des équipes de recherche, c’est devenu un outil de décision important. C’est en particulier le cas pour les tutelles plus lointaines (par opposition aux tutelles directes évoquées plus haut, qui ont le plus souvent une connaissance de proximité de leurs laboratoires).
Inconvénients
• Le caractère réducteur : La critique porte sur le fait que la disponibilité d’une note déresponsabilise les tutelles et autres opérateurs (collectivités, fondations caritatives, mécènes...) qui sont tentés d’utiliser par facilité la ou les notes, plutôt que de réellement analyser le rapport, véritable synthèse de l’évaluation.
• Le caractère prescriptif : C’est une conséquence de l’effet précédent, la note, par seule force de synthèse, risque souvent d’emporter les décisions des tutelles (création, renouvellement, allocation de moyens...). Ceci va à l’encontre de la séparation voulue entre évaluation et décision .
• L’effet « tatouage » à long terme : Ainsi qu’il a été dit ci-dessus, un comité d’évaluation apporte un regard extérieur à un instant t donné sur des équipes de recherche. Par nature, les laboratoires sont des structures vivantes dont le périmètre et les activités évoluent dans le temps. Avec un rythme d’évaluation quinquennal, la notation cristallise pour cinq ans cet instantané de l’évaluation, ce qui entraîne un risque de stigmatisation à long terme de certains et au contraire l’instauration d’une rente de situation pour d’autres .
• Les difficultés de mise en œuvre. Elles sont de deux ordres : (i) aboutir à une notation « absolue » à partir de rapports rendus par des comités différents, au périmètre d’intervention très limité, a nécessité la mise en place de réunions de notation / interclassement dont le fonctionnement, les modalités et la transparence ont été critiqués ; (ii) au cours du temps, l’instrumentalisation des notes par différents acteurs et leur caractère potentiellement prescriptif ( cf ci-dessus) a conduit les présidents de comité à être plus parcimonieux dans l’attribution des notes B et C, devenues souvent synonymes de restructuration voire de fermeture de laboratoire. Si bien que l’utilité même de notations comportant une très large majorité de A+ et de A perdait de sa signification .
• L’exclusion : La notation A+, A, B, C même sur plusieurs critères, a généré des effets de seuil qui se sont couplés au caractère potentiellement prescriptif des notes pour engendrer un autre effet pervers. Pour éviter les effets couperet d’une note insuffisante, certains responsables scientifiques ont parfois pratiqué une politique d’exclusion visant à faire disparaître des organigrammes des collègues jugés moins performants, dans le but de « remonter leur moyenne ». Il n’est pas certain que les sortir du système soit une stratégie qui améliore in fine la qualité de notre recherche et de notre enseignement supérieur.
Aujourd’hui, la notation par l’instance d’évaluation est largement rejetée par les organisations représentatives des personnels, qu’elle soit mono ou multi-critères. Elle n’est pas réclamée par les grands organismes de recherche qui disposent de structures propres de suivi et se servent du rapport d’évaluation comme un des éléments de leurs arbitrages. Certains pratiquent même leur propre classement aux travers de leurs instances internes. La position des universités est plus multiforme, mais semblerait pouvoir s’accommoder d’une suppression de la notation. Cette dernière permettrait de plus une simplification des procédures, en supprimant la nécessité des réunions d’interclassement permettant d’attribuer ces notes.
En revanche, les organismes internationaux d’accréditation attendent qu’une évaluation synthétique, sur critères multiples et adaptés, soit produite in fine par l’agence indépendante, et non pas par d’autres instances. D’autre part, une bonne gestion des moyens publics exigerait que les procédures d’évaluation qui aboutissent au jugement global produit par le Haut Conseil ne soient pas de nouveau opérées par d’autres instances – même si les différentes tutelles doivent conserver, par rapport à l’évaluation, une totale autonomie de leurs décisions stratégiques qu’elles assument ainsi ouvertement. Cela suppose certes que tout soit mis en œuvre pour que les acteurs du système aient la plus grande confiance dans les résultats des évaluations.
Conclusion sur la notation : Pour répondre à ses missions de haute autorité indépendante, tout en évitant les effets pervers d’une notation chiffrée, il est proposé que le Haut Conseil produise une fiche formelle d’évaluation, avec une série d’avis et de recommandations clairs sur une grille de critères qualitatifs adaptés à la situation des unités évaluées. Ceux-ci doivent aider à faire progresser la qualité scientifique de ces unités en donnant à chacune une information synthétique quant à leur situation globale par rapport aux standards nationaux et internationaux du champ scientifique concerné.
Il est proposé que les tutelles qui souhaitent disposer d’un classement plus précis destiné par exemple à allouer des moyens aux établissements puissent le faire, non pas en agrégeant les résultats de ces rapports destinés aux laboratoires, mais en employant des indicateurs plus accessibles et à plus gros grain, qu’il faudra normaliser après concertation avec les établissements, à partir d’indicateurs résultant d’autres procédures d’évaluation reconnues, comme par exemple le nombre des contrats européens déposés ou d’ANR financées, le nombre des docteurs issus de l’établissement, celui des personnes membres de l’IUF, des lauréats de l’ERC... etc. tous indicateurs dont la réunion semble étroitement corrélée à ceux auparavant construits à partir de la notation des unités.
Concernant l’évaluation des formations, la position des acteurs sur les notes est certainement moins tranchée et moins sensible. Ceci tient sans doute au fait que les notes attribuées lors de l’évaluation des diplômes ont aujourd’hui beaucoup moins d’impact direct sur l’allocation des moyens aux établissements qui, pour la formation, repose sur d’autres critères (nombre de présents aux examens, taux de réussite, insertion...). De plus, dans le cadre de la logique du passage de l’habilitation des diplômes à celle de l’accréditation des établissements, on peut se demander quelle serait dorénavant leur pertinence et leur portée. A titre de comparaison, on peut remarquer qu’il existe d’autres processus d’évaluation qui ne s’appuient pas sur une logique de notation : accréditation par la CTI, évaluation par la CCN-IUT...
Recommandation : si les notes littérales sont supprimées, le HCERES devrait fournir une fiche d’évaluation synthétique résumant les avis et recommandations sur une grille de critères adaptés.
(3) La publicité
Le caractère public des rapports et des notes mis en œuvre par l’AERES a certainement été un progrès important en termes de transparence dans le processus d’évaluation. Toutefois, c’est la publicité, couplée à la notation, qui est aussi responsable d’une partie des effets pervers décrits au point précédent: caractère prescriptif, effet tatouage... Deux autres critiques importantes ont été faites à la publicité « totale » que constitue la diffusion sur Internet : (i) le problème de la confidentialité et du risque pour la compétitivité pour certaines équipes travaillant dans des domaines très concurrentiels ; (ii) le risque d’un certain manque de franchise dans les rapports, du fait de leur caractère public, conduisant à une autocensure du comité. Pour être réellement utile aux acteurs et aux tutelles, le rapport doit exprimer véritablement ce que le comité pense des équipes, des formations ou des établissements et formuler des recommandations détaillées.
On ne peut cependant pas nier l’effet bénéfique général de la transparence du processus d’évaluation. Le retour à des rapports confidentiels pourrait être vécu comme une véritable régression, en particulier en dehors de la communauté, et pourrait constituer un handicap pour la reconnaissance internationale du futur HCERES par les organisations d’accréditation. Plusieurs hypothèses alternatives seraient envisageables : Dans tous les cas, le rapport complet serait transmis aux évalués, à leurs tutelles et à leurs instances d’évaluation internes (CoNRS, CSS, Conseil Académique ou équivalent...). Au delà de ce premier cercle, on pourrait ne rendre largement publique qu’une synthèse de l’évaluation, on pourrait aussi diffuser sur demande l’évaluation à un ensemble élargi d’acteurs (Ministères, collectivités, ensemble des unités de recherche de la même discipline...).
Si la notation devait disparaitre, le rapport devrait impérativement fournir une synthèse explicite des avis et des recommandations sur une grille de critères pertinents, afin pour chacun d’eux d’apporter un éclairage pour les évalués et leurs tutelles sur la qualité, le positionnement national et international, la dynamique et les perspectives, les enjeux... Ce rapport détaillé n’est destiné qu’aux évalués et à leurs tutelles. Un résumé de l’évaluation sous forme d’avis synthétique, qui conserve cependant trace des différents champs couverts par la grille d’évaluation, est produit pour rendre public le résultat des évaluations et est affiché sur le site du Haut Conseil.
Recommandation : Le rapport complet et détaillé pourrait n’être transmis qu’aux évalués, à leur tutelles directes et à leurs instances d’évaluation propres. Seul serait rendu public un avis synthétique. Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".

12 mars 2014

Modalités d’élaboration et d’organisation des évaluations

La Documentation Française - la librairie du citoyenLe rapport "L'évaluation de la recherche et de l'enseignement supérieur" présente les principes de l'évaluation par le HCERES, les modalités d'élaboration et d'organisation des évaluations, l'organisation de la future Haute autorité indépendante. Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".
Modalités d’élaboration et d’organisation des évaluations  
Le principe de la visite semble acquis et même indispensable pour de très nombreux acteurs, comme un dispositif adapté pour l’évaluation des établissements et des unités de recherche. Préparée par la lecture d’un dossier, encadrée par des procédures rigoureuses, la visite sur site permet une rencontre et un dialogue entre évaluateurs et évalués. Ces échanges constituent un apport d’information irremplaçable de part et d’autre et sont constructeurs de sens pour l’évaluation.
(1) Concertation amont
Parmi les demandes très largement exprimées par les acteurs, figure en premier lieu celle d’une plus grande interactivité dans le processus de mise en place de l’évaluation, avec plusieurs objectifs d’amélioration :
• La coordination des processus d’accréditation et d’évaluation. Il n’est pas rare que plusieurs autorités ou commissions interviennent lors de l’évaluation d’un même établissement : HCERES, CTI, CCNIUT, CEFDG... La synchronisation des calendriers et l’échange des informations permettraient de ne mobiliser les acteurs qu’une seule fois et d’obtenir une vision consolidée.
• La prise en compte de la politique spécifique du site et de chacun de ses acteurs qui auraient ainsi l’occasion de s’exprimer dans une phase précoce. Aujourd’hui, les laboratoires et les formations sont évalués dans un premier temps, les établissements ensuite et enfin seulement le site (regroupement d’établissements). L’évaluation des laboratoires et des formations pouvait ainsi parfois se faire sans que les comités correspondants aient connaissance de la politique de site et donc avec une grille de lecture incomplète.
• La prise en compte des missions spécifiques éventuelles de la structure évaluée, ainsi que des questions particulières liées au contexte que pourraient poser les tutelles au comité d’évaluation.
• La procédure d’évaluation elle même. La loi prévoit en effet que le HCERES puisse valider une procédure d’évaluation mise en place par les tutelles, si celles-ci s’accordent sur ses modalités.
• L’assurance de la couverture disciplinaire. Il existe en effet de plus en plus de grands laboratoires interdisciplinaires, soit nés du regroupement d’équipes existantes, soit constitués par recrutement de nouvelles compétences sur des fronts de science originaux.
• La représentation le cas échéant des instances d’évaluation des personnels, afin de permettre une coordination des évaluations des personnels avec celle des équipes de recherche
• La prise en compte d’éventuels conflits d’intérêts, inconnus des représentants du Haut-Conseil Cette concertation amont doit aussi être l’occasion d’interroger les acteurs sur leur désir éventuel de recourir à une évaluation élaborée selon des modalités internes et concertées entre les tutelles, que le HCERES pourrait alors examiner pour validation, ainsi que le permet la loi.
Cette solution de validation de procédures internes d’évaluation a été recommandée par le rapport remis par le député Jean-Yves Le Déaut au Premier Ministre en amont de la préparation de la loi. Au vu de nos entretiens avec les parties, il semble cependant très probable que pour une grande part, l’évaluation des laboratoires restera largement organisée par le HCERES. Ceci tient principalement à ce que de nombreuses tutelles sont attachées au caractère uniforme, externe et indépendant des acteurs que garantit l’évaluation organisée par une autorité indépendante, comme le sera le HCERES. On peut donc s’attendre à ce qu’elles préfèrent se reposer sur ce dernier.
Ceci n’empêche cependant pas d’envisager que localement des expérimentations puissent être menées, si les parties sont d’accord et que le processus est conforme au cahier des charges du Haut Conseil et validé par ce dernier. Dans tous les cas, la décision sur les modalités doit rester la prérogative du Haut-Conseil, mais l’existence de cette phase préalable, de concertation multi-niveau serait de nature à rendre le processus plus efficace, de meilleure qualité et plus acceptable. Recommandation : L’évaluation des laboratoires devrait être précédée d’une phase de concertation préalable permettant de prendre éventuellement en compte les demandes concertées des tutelles sur le cadrage en fonction du contexte et des missions de l’unité et sur les principes d’organisation du comité.
(2) Composition des comités
La composition des comités de visite a pu faire débat. Si elle reste en dernier ressort de la compétence du HCERES, elle pourrait faire l’objet de modalités nouvelles, destinées à entretenir le dialogue et élargir la concertation. C’est un des sujets sur lequel il n’existe pas de consensus entre les différents acteurs, ni sur la qualité des experts qui les composent, ni sur les modalités de leur désignation. Le spectre des positions exprimées allant de l’exigence de comités ad hoc entièrement internationaux, 100% extérieurs, à celle de comités composés en grande partie de représentants des instances internes d’évaluation des établissements, en passant par l’appui sur un scientific advisory board (SAB), comme il en existe dans certains grands laboratoires ou instituts. Les arguments avancés sont recevables mais malheureusement incompatibles entre eux.
• Pour les comités ad hoc extérieurs, les principaux arguments avancés sont celui de l’indépendance à la fois des tutelles et des communautés locales et celui de la vision externe et internationale. Les critiques formulées contre ce type de comité sont celles du manque de vision transversale du paysage, d’une absence d’articulation avec l’évaluation des personnels et, pour certains, d’une absence de légitimité du fait de leur mode de désignation.
• Pour les comités composés de membres des instances internes d’évaluation des établissements, il y a deux raisons avancées, celle de l’articulation avec l’évaluation des personnels et celle de permettre d’avoir une vision longitudinale dans le temps et transversale dans un même champ disciplinaire, grâce au recours à des experts ayant un mandat de plusieurs années dans les commissions d’évaluation. Ce type de comité est cependant critiqué pour son caractère peu ouvert sur l’extérieur, potentiellement endogame et surtout parce qu’il est vu comme introduisant par construction une asymétrie entre les tutelles dans le processus d’évaluation. Dans le cas d’UMR, il est vu comme donnant la primauté à l’organisme qui dispose d’un dispositif d’évaluation interne beaucoup plus structuré.
• Pour les comités s’appuyant sur les SAB, l’argument principal est celui de la simplification (pas de double évaluation par le SAB et le comité HCERES). Ils posent cependant le problème de l’indépendance du SAB, qui, s’il intervient dans le pilotage du laboratoire (recrutement d’équipes, définition des axes stratégiques), est alors juge et partie.
Pour essayer de résoudre ces difficultés, il nous semble que le premier critère pour la sélection d’un évaluateur devrait être sa compétence scientifique dans l’une des thématiques de recherche du laboratoire visité. Ceci n’interdit bien évidemment pas que des représentants des instances internes d’évaluation des établissements y siègent, puisqu’il s’agit de scientifiques compétents. Une solution mélangeant suivant les cas les trois types de comités décrits ci-dessus dans des proportions variables pourrait associer leurs avantages et limiter leurs inconvénients. La procédure de concertation amont entre les tutelles et le HCERES évoquée ci-dessus pourrait en effet être un moyen d’adapter le principe de constitution du comité aux vœux des tutelles, sous réserve de leur accord et de la compatibilité de la procédure avec le cahier des charges du HCERES.
On peut ainsi imaginer associer, après consultation des tutelles, suffisamment de représentants des instances d’évaluation interne pour garantir une bonne articulation avec l’évaluation des personnels (par exemple, en sollicitant les différentes commissions disciplinaires concernées pour qu’elles désignent des représentants), des experts internationaux et, ès qualité, un ou plusieurs représentants d’un SAB indépendant, lorsqu’il existe. Enfin, la présence d’un représentant des personnels ITA/ITRF dans les comités est souhaitée ou acceptée par une majorité des acteurs. Le rôle de ce représentant étant avant tout d’avoir un regard sur l’organisation et la vie de l’unité et de ses personnels techniques et administratifs. Dans tous les cas, c’est le HCERES, autorité indépendante, qui valide la composition du comité et la procédure.
Ce type de processus de concertation amont pourrait également inclure d’autres acteurs, comme les laboratoires eux-mêmes. Sans leur donner la possibilité d’un choix positif de certaines personnes, il pourrait leur être laissé un choix négatif, en leur accordant la latitude de récuser par avance tel ou tel évaluateur potentiel. La construction d’un répertoire commun des évaluateurs, assorti de leurs compétences, est souhaitable, en particulier pour les domaines de recherche situés aux interfaces disciplinaires. Un tel répertoire pourrait être partagé par toutes les instances nationales d’évaluation, y compris l’ANR, les modalités d’inscription devant être transparentes et fondées sur des critères aussi objectifs que possible. Les instances nationales de l’évaluation des chercheurs et enseignants-chercheurs pourraient également proposer des noms pour enrichir la base de données des évaluateurs potentiels.
Recommandation : les modalités d’intervention et de composition des comités de visite sont décidées par le HCERES après concertation avec les parties prenantes. Les évaluateurs sont sélectionnés pour leur qualité scientifique dans un répertoire public construit, entre autres, sur proposition des instances nationales de l’évaluation.
(3) Grille et cahier des charges
Le HCERES établit à partir des principes énoncés dans la loi une grille d’informations à produire pour l’évaluation, un cahier de charges. Cette grille doit être construite avec un effort de simplicité et de lisibilité mais doit aussi pouvoir être adaptée à la diversité des situations. Dans d’autres pays l’évaluation se pratique directement sur les productions de la recherche, lorsqu’elle concerne les chercheurs individuels principalement. Il semble qu’on puisse continuer à pratiquer une évaluation à partir des rapports que produisent les unités de recherche et de la qualification des productions scientifiques évaluées par les revues et les éditeurs d’ouvrages. Cependant, le dossier demandé aux unités pourrait progressivement être allégé, en étant pré-rempli, à partir des bases de données du Ministère ou des établissements, de nombreuses informations factuelles qu’il suffirait ensuite aux directeurs d’unités de vérifier. Ce travail préalable pourrait être assisté par l’OST.
Dans l’évaluation des unités, même si la notion du nombre de produisants et du volume de leur production reste un élément important d’appréciation, le rôle de la bibliométrie est à moduler très fortement selon les disciplines. Par exemple, les bases de données bibliométriques sont encore largement inadaptées dans la plupart des disciplines des sciences humaines et sociales et des humanités. Une question qui fait également débat est celle de savoir si l’évaluation des laboratoires doit aussi concerner leur(s) projet(s), ou seulement leur activité passée. Certains acteurs sont réticents à l’inclusion du projet dans le champ de l’évaluation des laboratoires. Il y a deux principales justifications à cette opposition : (i) la question de la confidentialité de certains projets que certaines tutelles ne souhaitent pas voir compromise par leur communication aux membres du comité de visite qui peuvent s’avérer des concurrents potentiels ; (ii) l’ingérence dans le pilotage par certaines tutelles qui souhaitent conserver un contrôle des moyens et de la stratégie et considèrent donc avoir un droit de regard sur le projet qui ne relève pas de la seule compétence des équipes de recherche.
A l’inverse, il semble difficile de solliciter un comité d’experts compétents et de lui demander de regarder l’activité de recherche d’un laboratoire en faisant complètement abstraction de toute projection dans l’avenir. Ce qui semblerait raisonnable serait que, sauf cas très particulier justifiant la confidentialité, le comité examine de manière macroscopique les grandes orientations envisagées par le laboratoire et donne un avis sur leur pertinence et leur faisabilité, au regard des compétences et outils dont il dispose et de ses productions antérieures. En revanche, l’examen de projets détaillés ne semble pas pertinent et risquerait de faire doublon avec les demandes de moyen auprès des tutelles ou des agences de financement (ANR). Là aussi il s’agit de bien séparer l’évaluation par le HCERES de la décision par les tutelles. Le comité d’évaluation n’est pas là pour valider tel ou tel projet détaillé, ce qui pourrait être interprété comme une préemption de la décision stratégique par la tutelle de le soutenir ou pas.
Recommandation : L’évaluation doit porter principalement sur l’activité présente et passée du laboratoire et n’a pas vocation à examiner ses projets de manière détaillée. En revanche, il semble raisonnable, sauf cas particulier, d’examiner les grands axes stratégiques envisagés, leur faisabilité et leur pertinence.
(4) Evaluations en dehors de la métropole
Notre dispositif d’enseignement supérieur et de recherche dispose d’implantations hors de la métropole, soit ultramarines, soit à l’international. Parmi celles-ci, on compte en particulier d’un certain nombre d’instituts et d’unités de recherche qui entrent dans le champ de compétence du Haut Conseil : IFRE, UMIFRE, UMI, LMI... La difficulté spécifique posée par l’évaluation des ces structures de recherche distantes est liée au coût des missions pour les évaluateurs, qui a fait que parfois les comités d’évaluation se sont tenus plutôt « sur pièces », avec un simple échange par visioconférence, sans réelle visite sur site.
Cette situation ne paraît pas optimale et les modalités de son amélioration devraient être recherchées. D’abord parce que la visite sur site est unanimement reconnue comme une dimension essentielle du processus d’évaluation, par tous les acteurs (évaluateurs, évalués, tutelles). D’autre part parce que ces structures constituent une richesse, disposant de ressources scientifiques souvent uniques et qu’elles représentent en même temps un investissement important, conséquence en particulier de leur implantation distante. Ceci justifie donc probablement une attention particulière envers ce dispositif multiforme. Deux directions devraient être explorées : la possibilité d’adapter le processus pour envoyer au moins une fraction du comité de visite sur site (a minima, l’un des membres), et l’évaluation consolidée de l’ensemble ou de parties cohérentes de ce dispositif déployé à l’international et en outremer. Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".

12 mars 2014

Les niveaux de l’évaluation dans le rapport "L'évaluation de la recherche et de l'enseignement supérieur"

La Documentation Française - la librairie du citoyenLe rapport "L'évaluation de la recherche et de l'enseignement supérieur" présente les principes de l'évaluation par le HCERES, les modalités d'élaboration et d'organisation des évaluations, l'organisation de la future Haute autorité indépendante. Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".
Les niveaux de l’évaluation
(1) Etablissements

Les transformations rapides du périmètre des universités et de leurs regroupements ainsi que les incitations à promouvoir une réflexion stratégique à l’échelle des ensembles territoriaux d’établissements (politique de site) conduisent à réviser assez profondément les procédures d’évaluation à ce niveau. Tout en se centrant sur l’évaluation scientifique, il s’agit pour le HCERES de prendre en considération en amont la bonne insertion de chaque établissement dans son territoire, du point de vue des formations et de la recherche, en accord avec les autres acteurs du site.
Les établissements qui sont dans le champ d’intervention du Haut Conseil peuvent se répartir en deux catégories, avec des enjeux et des problématiques assez différents : il y a d’une part les organismes de recherche et d’autre part les établissements d’enseignement supérieur. Les seconds correspondent à un modèle relativement standard et largement répandu sur le plan international, ils peuvent donc faire l’objet d’une procédure d’évaluation normalisée et sont plus faciles à appréhender par des experts internationaux. Les premiers sont en revanche beaucoup plus divers et leur évaluation est probablement plus complexe à mettre en œuvre. Dans les deux cas, organismes et établissements d’enseignement supérieur, il faut s’interroger sur la question posée et les enjeux de l’évaluation. Pour les seconds, la réponse est à nouveau plus simple, l’enjeu principal est actuellement le dialogue avec la tutelle et la répartition des moyens, en particulier par la DGESIP. Pour les organismes la réponse est moins directe, mais pourrait s’insérer dans une logique d’évaluation thématique par grand domaine.
Parmi les points qui ont été abordés lors de nos entretiens, il est en effet ressorti le besoin de pouvoir donner aux décideurs publics une vision stratégique nationale sur tel ou tel grand champ disciplinaire (exemple : la génétique, la psychologie ou la physique des plasmas), décrivant les forces des différents acteurs nationaux et territoriaux, leur positionnement international ou encore leur dynamique temporelle. Une telle étude ne peut se construire seulement par agrégation des évaluations individuelles des équipes et laboratoires de recherche mais nécessite également une approche transversale, plus macroscopique. Pour ce faire le HCERES pourrait s’appuyer en particulier sur l’OST.
Un autre élément très important de l’évaluation des établissements par l’AERES concerne les recouvrements éventuels avec les autres procédures d’audit auxquels ils sont régulièrement soumis (Cour des Comptes, IGAENR...). Le HCERES est la seule de ces instances qui aura la légitimité scientifique pour se pencher sur les aspects réellement stratégiques de la politique de recherche et de formation des établissements. L’Inspection générale, comme la Cour des Comptes sont par contre compétentes pour examiner les aspects financiers, logistiques, ou organisationnels de l’établissement. Il serait donc souhaitable que le Haut Conseil focalise sa mission d’évaluation en particulier sur les aspects qui relèvent de sa seule compétence, comme l’analyse de la politique de recherche et d’enseignement, l’articulation entre la formation et la recherche, l’existence d’outils de pilotage et d’une auto-évaluation stratégique de la recherche et de la formation. Les tutelles ministérielles pourraient indiquer de manière plus précise les termes de l’évaluation des établissements, par le biais d’une lettre de cadrage.
Celle-ci pourrait, en particulier indiquer les champs précis faisant l’objet d’une commande spécifique, ce qui permettrait d’éviter les redondances avec les évaluations par d’autres instances, ou au contraire d’attirer l’attention du comité d’évaluation sur des points de vigilance n’ayant pas fait l’objet d’évaluations récentes. Dans le cadre de la mise en place des politiques de site, l’évaluation des établissements devrait aussi s’inscrire dans une logique d’intégration renforcée entre les trois pans de l’évaluation : recherche, formations et établissements, par exemple pour que les axes de la politique de site ou d’établissement puissent être examinés en amont et ainsi servir de grille de lecture aux évaluations des laboratoires ou des formations. En plus des demandes spécifiques des tutelles ministérielles, il serait utile de faire entrer explicitement dans l’évaluation des établissements une analyse de la politique de suivi et de mise en œuvre des recommandations des précédentes évaluations. L’objectif serait de voir comment chaque établissement utilise et s’approprie les retours des comités, bien sûr pour l’établissement lui-même (c’est en général déjà le cas), mais aussi pour ses laboratoires et son offre de formation. Ceci permettrait d’avoir un éclairage sur ses outils de pilotage scientifique et pédagogique.
Recommandation : Pour éviter les redondances entre les différents audits, une lettre de cadrage fixant les termes spécifiques de l’évaluation pourrait être faite par les tutelles ministérielles. Celle-ci devrait se porter en priorité sur la stratégie scientifique et pédagogique et sur le suivi des recommandations des audits antérieurs.
(2) Formations
Le processus d’évaluation des formations doit connaître aussi une évolution profonde, en rapport avec la modification des procédures nationales d’accréditation des diplômes. On passe ainsi d’une évaluation ex ante des maquettes détaillées à une évaluation ex post des formations existantes, replacées dans un champ de formation plus large, à l’échelle des établissements et du site dans lequel ils s’inscrivent. Compte tenu du très grand nombre des diplômes, une importante simplification peut être réalisée à ce niveau grâce à cette modification du grain et de l’échelle d’observation, tout en permettant une utilisation rationnelle d’indicateurs objectifs de l’efficacité des formations.
La logique d’accréditation responsabilise les établissements qui se verront transférer une grande partie du processus au travers de la mise en place d’une auto-évaluation des diplômes par leurs instances internes. C’est ce processus que le Haut Conseil devra analyser, à un niveau beaucoup plus stratégique et macroscopique. Les critères de cette évaluation pourraient être en particulier :
• Les outils de pilotage et les principes retenus par l’établissement pour définir l’architecture de son offre de formation et évaluer le contenu de ses diplômes.
• L’articulation avec la recherche, dans une vision intégrée du site.
• Les dispositifs qualité mis en place en interne par les établissements : comités de perfectionnement des diplômes, évaluation systématique par les étudiants.
• La politique des stages, les liens avec le monde socio-économique, la qualité de l’insertion professionnelle.
• Les dispositifs d’accompagnement pédagogique, la place des technologies du numérique et l’enseignement des langues.
Ce type de procédure allégée constituerait une simplification importante et ferait des établissements et des étudiants des acteurs centraux du processus. Ponctuellement, le HCERES pourrait de plus se saisir de tel ou tel diplôme spécifique, soit à fins de sondage pour examiner en détail la manière dont un établissement construit ses maquettes, soit pour des diplômes particuliers ayant par exemple un statut expérimental ou dérogatoire et sur lesquels il jugerait utile d’effectuer un examen approfondi.
Recommandation : Dans la logique de l’accréditation, passer d’une évaluation exhaustive des maquettes individuelles des diplômes, à une analyse plus stratégique de l’offre de formation, s’appuyant en particulier sur les auto-évaluations et l’évaluation par les étudiants.
Le HCERES devra veiller à adapter ses évaluations de manière à pouvoir prendre en compte des transformations prévisibles comme celles induites par le développement des technologies numériques, par exemple les CLOM (cours en ligne ouverts et massifs, MOOC en anglais).
(3) Recherche
La majeure partie de notre système de recherche est structurée autour de laboratoires ou unités de recherche qui en constituent la « brique de base », avec une ou plusieurs tutelles de rattachement (université, organisme, école...). L’évaluation de ces structures prend en général la forme d’une visite sur site avec un comité d’évaluation. L’évaluation des unités de recherche est avant tout destinée aux évalués, elle doit leur permettre de situer leur orientation et leur production parmi celles de leurs pairs. Elle sert également aux tutelles directes à prendre des décisions stratégiques concernant leur labellisation et les moyens qui leur sont affectés.
La granularité de l’analyse dépend des disciplines. Dans certains cas, les laboratoires sont vus comme des regroupements d’équipes qui font l’objet d’évaluations indépendantes, ensuite agrégées dans celle du laboratoire et de sa politique globale. Dans d’autres disciplines au contraire, la notion d’équipe a moins de sens et les communautés sont attachées à une évaluation globale du laboratoire, pris comme un collectif. Dans ce domaine, il nous semble qu’il ne faille pas imposer un modèle unique, mais au contraire s’adapter aux logiques et aux cultures des différentes communautés disciplinaires.
Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".

12 mars 2014

Principes de l’évaluation par le HCERES : vers une évaluation rigoureuse et plus partagée

La Documentation Française - la librairie du citoyenLe rapport "L'évaluation de la recherche et de l'enseignement supérieur" présente les principes de l'évaluation par le HCERES, les modalités d'élaboration et d'organisation des évaluations, l'organisation de la future Haute autorité indépendante. Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".
1. Les objectifs de l’évaluation
L’évaluation est indispensable à une pratique réflexive de l’enseignement et de la recherche comme à la gouvernance des institutions qui les organisent. Son objectif essentiel est d’aider à l’amélioration des pratiques et de la qualité des services rendus. Un des objectifs essentiels de l’évaluation est aussi de maintenir une cohérence de l’appareil de formation et de recherche au niveau national, pour des raisons d’équité intérieure et de visibilité internationale. Ces deux objectifs sont complémentaires et non contradictoires. L’évaluation constitue bien évidemment une information utile à la prise de décision mais ses résultats, même s’ils peuvent être parfois assortis de recommandations, doivent être produits de manière totalement indépendante par rapport aux processus de décision des entités qui les utilisent. Ces objectifs sont consensuels, la majorité des parties prenantes s’accordant en effet pour considérer que l’amélioration de la qualité des équipes de recherche et des formations doit être le principal objectif visé par l’évaluation. Un deuxième objectif accepté de l’évaluation est de fournir un avis argumenté aux tutelles directes, afin d’éclairer leur dialogue avec les structures et formations évaluées, en particulier pour permettre une direction concertée. La notion de tutelle directe est importante, une des critiques formulées à l’égard du processus précédent étant la dérive parfois ressentie d’un mésusage de l’évaluation produite, par des acteurs plus lointains. Il existe évidemment un besoin légitime d’avoir des indicateurs plus macroscopiques et plus stratégiques, en particulier pour éclairer les décisions prises par la puissance publique et les acteurs politiques. Cependant, il n’est pas certain que la construction de ces indicateurs doive être faite à partir des évaluations individuelles des laboratoires et des formations. Ceux ci pourraient être établis à partir d’analyses adaptées, à plus gros grain.
Recommandation : L’objectif principal de l’évaluation doit être l’amélioration de la qualité de la recherche et de la formation. Elle s’adresse en priorité aux évalués et à leurs tutelles directes. Elle doit fournir des recommandations constructives et un avis argumenté.
(2) Qualité de l’évaluation
Tout comme l'évaluation de l'action publique en général, l’évaluation de l’enseignement supérieur et de la recherche a évolué, d’une simple prise en compte de sa pertinence, et du rapport coûts/bénéfices, vers une évaluation scientifique moins fermée, plus objectivée et publicisée. Cette orientation atténue, sans totalement les conjurer, les risques de corporatisme ou de collusions d’intérêts. De ce point de vue, l’AERES a contribué à modifier les pratiques et à les normaliser dans le sens d’une meilleure visibilité. Cependant, la qualité de l’évaluation est aussi une question de légitimité, qui se fonde aussi bien sur l’assise démocratique de l'organisme et de sa gouvernance, que sur la compétence scientifique des évaluateurs.
L’évolution de la composition du Conseil du HCERES, telle que définie par la loi, va bien dans le sens d’une plus grande indépendance , puisqu’elle prévoit de manière plus transparente la participation des principaux acteurs de l’évaluation, une désignation directe de leurs représentants par les instances nationales d’évaluation des personnels (CNU, Comité National de la Recherche Scientifique), tout en confirmant la participation de représentants des collectivités territoriales. Ce Conseil doit fonctionner comme un lieu de dialogue entre les parties prenantes de l’évaluation et pourrait intégrer des personnalités engagées dans d’autres structures d’évaluation. L’évaluation diffère du contrôle ou de l’inspection. Elle ne se situe pas dans une perspective de sanction, mais au contraire elle doit apporter une aide pour faciliter la progression des unités et des établissements. Pour cela, le processus d’évaluation doit impérativement fournir aux évalués des commentaires clairs et argumentés et déboucher sur des recommandations constructives. L’évaluation doit être autant que possible objective, équitable, transparente.
L’évaluation scientifique doit être conduite et réalisée par des pairs. Pour que la communauté scientifique s’approprie le dispositif et en tire pleinement bénéfice, il est essentiel que les panels des scientifiques qui procèdent aux évaluations aient des mandats limités et soient fréquemment renouvelés. La qualité de l’évaluation repose très largement sur celle des évaluateurs. La confiance dans l’institution dépend du soin apporté à la sélection des personnes que le Haut Conseil habilite pour conduire les évaluations. Le Haut Conseil peut effectuer cette sélection en fonction de critères scientifiques à partir de listes d’évaluateurs que les instances nationales d’évaluation pourraient contribuer à constituer. Notamment, la participation de représentants des instances chargées de l’évaluation des personnes dans les comités de visite des unités de recherche (voir ci-dessous, 3.3) est une garantie d’une certaine coordination entre l’évaluation des personnels et celle des unités de recherche. L’évaluation est élaborée de façon externe, indépendamment de la décision, même si dans sa mise en œ uvre elle doit être conçue pour aider à la décision, tant pour les structures évaluées que pour leurs organismes de tutelle.
L’évaluation bien qu’établie à partir de principes communs doit être adaptée aux missions qui ont été définies pour les organismes ou les unités. Elle doit aussi admettre une variabilité des critères utilisés en fonction de la diversité des disciplines et des formes d’organisation de la recherche. L’évaluation doit être précise et fiable, mais ne doit pas être trop coûteuse, pour l’ensemble des acteurs concernés. Les coûts à prendre en compte sont aussi bien les coûts directs liés au fonctionnement du HCERES et des comités de visite mais aussi les coûts indirects liés à la production des rapports par les laboratoires et les établissements, ainsi que par les experts sollicités.
Recommandation : L’évaluation scientifique doit être conduite et réalisée par des pairs. Les panels des scientifiques qui font les évaluations doivent avoir des mandats limités et être fréquemment renouvelés.
Recommandation : L’évaluation doit s’appuyer sur des critères modulables, adaptés à la diversité des disciplines et des formes d’organisation de la recherche. Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".

12 mars 2014

Les institutions de l’évaluation de la recherche et de l'enseignement supérieur

La Documentation Française - la librairie du citoyenLe rapport "L'évaluation de la recherche et de l'enseignement supérieur" présente les principes de l'évaluation par le HCERES, les modalités d'élaboration et d'organisation des évaluations, l'organisation de la future Haute autorité indépendante. Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".
1. Les institutions de l’évaluation
L’article 49 de la loi ESR précise « Garant de la qualité des évaluations, le Haut conseil s’inspire des meilleures pratiques internationales ». Si un consensus se dessine en France dans l’ensemble des institutions de recherche et d’enseignement supérieur pour reconnaître la nécessité et l’intérêt de l’évaluation, on n’a peut-être pas assez tiré parti des expériences effectuées dans d’autres pays européens. Depuis 2000, l’ENQA ( European Association for Quality Assurance in Higher Education ) est un lieu de reconnaissance, mais aussi de discussion, de comparaison et de développement des bonnes pratiques destinées à élever la qualité des évaluations dans l’enseignement supérieur. Elle produit des références, des procédures et des lignes directrices qui assurent la qualité de l’évaluation tout en maintenant un système d’examen par les pairs. Compte tenu de son histoire et de son organisation, chaque pays a développé son propre système, mais les principes généraux et les pratiques à éviter ou à promouvoir sont souvent très comparables. L’association délivre des certificats de conformité en inscrivant dans un registre (l’EQAR, fondé en 2007) les institutions reconnues pour la qualité de leur processus d’évaluation. L’AERES y a été inscrite en 2011, soit quatre ans environ après sa création.
(1) Les spécificités françaises
Contrairement à une idée répandue, la France s’est dotée assez tôt d’une culture de l’évaluation dans le domaine de la recherche et de l’enseignement supérieur, avec des dispositifs comme la Mission Scientifique Universitaire, à laquelle se substitue en 2003 la Mission Scientifique, Technique et Pédagogique (MSTP) ou encore le Conseil National de l’Evaluation (CNE) constitué à partir de 1999. Plusieurs institutions se sont succédées , avec des missions similaires mais peu de capitalisation entre les systèmes successifs. La France aurait ainsi perdu de son avance par rapport à d’autres pays qui inscrivent davantage leur action dans la durée.
Ainsi, lors de sa création en 2007, l’AERES n’a peut-être pas suffisamment pris en compte les acquis des expériences antérieures, même si certaines personnes du CNE y ont été intégrées. Sans doute faut-il éviter de répéter cette rupture et essayer de capitaliser sur ce que l’AERES a pu apporter de positif, notamment dans l’évolution de ses pratiques. Toutefois, alors que les ajustements successifs de ces pratiques de l’évaluation tendaient à remédier à des lacunes ou à corriger des dysfonctionnements signalés, les intentions qui les guidaient n’ont pas toujours été assez clairement communiquées. Les ajustements ont été souvent perçus comme exprimant une tendance à une excessive bureaucratisation, notamment lorsqu’il s’agissait de rendre plus précis et explicites les critères et recommandations destinés aux évaluateurs.
La création d’une nouvelle autorité indépendante, le Haut Conseil pour l’Evaluation de l’Enseignement Supérieur et de la Recherche (HCERES), confirme l’intention mise en œuvre il y a six ans pour créer un espace ouvert public de l’évaluation, mais doit permettre de remédier aux dispositifs et aux pratiques ayant entraîné ce manque de confiance dans l’institution. Le HCERES, en tant qu’autorité indépendante, devrait se voir approprié par tous les acteurs comme une des composantes partenaires du système de la recherche et de l’enseignement supérieur. Des interfaces et des outils de dialogue et de concertation doivent permettre de mieux prendre en compte les attentes parfois divergentes des acteurs, sans sacrifier aux règles déontologiques d’indépendance et de rigueur de l’évaluation.
(2) Un contexte en évolution
Au cours de l’exercice 2012-2013, l’AERES a évalué quelque 64 établissements (dont 19 universités), 620 unités de recherche et près de 2500 formations. Sur un budget d’environ 15 millions d’euros, elle a engagé quelque 4000 évaluateurs et organisé 678 comités d’évaluation. Cette activité intense est typique d’une organisation centralisée de l’évaluation, effectuée à un niveau très fin : dans le système italien par exemple, l’évaluation des unités de recherche est décentralisée dans les universités, dans le système anglais, l’évaluation de la recherche s’effectue au niveau des départements universitaires . Dans l’ensemble, les acteurs de la recherche française se satisfont d’une évaluation des établissements et des unités de recherche qui suive des procédures et des critères communs au plan national, même si les modalités sont bien évidemment adaptées en fonction des disciplines et des missions des organismes et des unités.
Le contexte actuel implique que l’action du HCERES soit mise en cohérence avec la nouvelle donne de l’enseignement supérieur et de la recherche. L’évaluation doit être compatible avec la stratégie nationale de la recherche, elle doit s’inscrire dans le développement de la politique de site, qui jusqu’ici n’a encore guère été prise en compte dans les procédures d’évaluation. C’est sans doute à ce niveau qu’une amélioration pourrait être apportée, dans le sens de la simplification, en ce qui concerne notamment l’évaluation des formations. La nouvelle procédure d’accréditation prévoit une concertation des établissements au niveau du site pour coordonner leur offre de formation en fonction du projet stratégique du site.
C’est la cohérence de cette organisation qui doit être évaluée et non plus le contenu de chaque maquette de diplôme. Le HCERES n’aurait plus alors qu’un rôle d’évaluation ex-post , facilité par un certain nombre d’indicateurs objectifs du succès des formations. La rapidité de l’évolution vers la numérisation dans de nombreux domaines doit aussi conduire à penser les modalités de l’évaluation et ses moyens en fonction de ces capacités nouvelles. Les règles de fonctionnement que se donnera le HCERES ne doivent pas être trop figées dans le détail mais doivent être conçues de manière à pouvoir s’adapter à ces transformations prévisibles.
(3) La pluralité des évaluations
La création du Haut Conseil ne tranche pas entre une centralisation ou une décentralisation des évaluations : « le Haut conseil s’inspire des meilleures pratiques internationales et assure ses missions, soit en conduisant des missions d’évaluation dans les établissements d’enseignement supérieur et les organismes de recherche, soit en s’assurant de la qualité des évaluations réalisées par d’autres instances » (article 49 de la loi ESR). Dans la pratique, les acteurs ne se sont pas encore emparés de la possibilité de faire simplement valider par le Haut Conseil des procédures et des pratiques qui seraient réalisées de façon interne aux établissements.
Dans le cas d’un accord entre les tutelles concernées sur des modalités particulières de l’évaluation des unités de recherche par exemple, des expériences pourraient être conduites sur quelques sites pour tester la faisabilité de cette mise en œuvre de procédures décentralisées, dans le cadre du cahier des charges défini par le HCERES. D’une manière plus générale, il semble souhaitable qu’une concertation entre les parties prenantes ait lieu en amont des évaluations, qu’il s’agisse de faire connaître les lettres de mission données par les tutelles à leurs unités, ou bien de s’accorder sur la composition souhaitable des comités de visite (voir plus bas, « 4- Modalités d’élaboration et d’organisation des évaluations. »). Il faut donc que l’organisation prévue par le Haut Conseil veille à la bonne articulation entre les instances et les opérations d’évaluation.
En interne, il faut prévoir une articulation entre les niveaux qui puisse jouer non seulement par agrégations successives, des productions individuelles de la recherche aux établissements puis au site en passant par les laboratoires, mais qui définisse à chaque niveau des indicateurs et des procédures tenant compte de la situation de ces éléments par rapport aux autres niveaux. Ainsi, la section qui réalise l’évaluation des établissements doit prendre en compte les orientations stratégiques du site, tout en agrégeant les informations issues de l’évaluation des unités et des formations qui les composent.
Il apparaît aussi souhaitable d’éviter les redondances entre des évaluations pratiquées par différentes instances : ainsi, pour l’évaluation des établissements, le rôle du HCERES est de se concentrer sur la stratégie scientifique, tandis que la Cour des Comptes ou les Inspections Générales évaluent d’autres aspects. Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".

12 mars 2014

L'évaluation de la recherche et de l'enseignement supérieur - Rapport Ministre de l'enseignement supérieur et de la recherche

La Documentation Française - la librairie du citoyenLa loi relative à l'enseignement supérieur et la recherche prévoit la mise en place d'un "Haut conseil de l'évaluation de la recherche et de l'enseignement supérieur" (HCERES), autorité administrative indépendante chargée de conduire ou de garantir les missions d'évaluation dans les établissements supérieurs, les organismes de recherche et les structures publiques de ce domaine. Le rapport présente notamment les principes de l'évaluation par le HCERES, les modalités d'élaboration et d'organisation des évaluations, l'organisation de la future Haute autorité indépendante. Télécharger le rapport "L'évaluation de la recherche et de l'enseignement supérieur".

9 mars 2014

Ratings Strategy With a Cost?

HomeBy Michael Stratford. Of all the criticism leveled at the Obama administration’s plan to rate colleges, perhaps the most widespread critique is that a ratings system will harm disadvantaged students' access to higher education. It’s a theme that permeated the Education Department’s public hearings on the ratings proposal last fall as well as the hundreds of pages of comments officials have received about the plan. Read more...

3 mars 2014

Campagne d’évaluation 2014-2015 (vague A)

AERESDans le cadre de la campagne d’évaluation 2014-2015 (vague A), l’AERES a rencontré lors de quatre réunions les établissements des académies de Bordeaux, Grenoble, Lyon et Toulouse, courant janvier et février 2014.
Ainsi, plus de 1500 participants ont assisté aux réunions qui se sont déroulées en deux temps forts :

  • Une présentation plénière. Didier Houssin, président de l’AERES, a explicité le contexe de transition entre l’AERES et le futur HCERES ainsi que les principales évolutions relatives à l’évaluation. Puis, Jean-Marc Geib, directeur de la section des formations et diplômes, Pierre Glaudes, directeur de la section des unités de recherche, et Philippe Tchamitchian, directeur de la section des établissements, ont présenté les modalités d’évaluation pour la vague A, issues des dispositions de la loi du 22 juillet 2013 relative à l’enseignement supérieur et la recherche.
  • Trois ateliers thématiques. Organisés par type d’évaluation (établissements/entités de recherche/formations), ces ateliers ont permis aux équipes de l’AERES de détailler chaque processus d’évaluation, et aux participants d’avoir des éclairages spécifiques et de poser leurs questions. Suite...
2 mars 2014

Evaluating the Payoff of a College Degree

http://chronicle.com/img/photos/biz/icons/bottom-line-header.pngBy . Is college worth it?
News articles raising that question, and reports meant to answer it, are piling up at a steady clip.
And the answer has real consequences for anyone advising a student about whether and where to go to college, and for policy makers wondering if the country has too many degree holders, or too few. A paper released on Monday by the Urban Institute seeks to add context to the debate over whether college pays off. The paper, “Higher Education Earnings Premium: Value, Variation, and Trends,” was written by Sandy Baum, a senior fellow at the research organization. Read more...

2 mars 2014

College-Rating Systems: One Size Cannot Fit All

subscribe todayBy Ellen McCulloch-Lovell. If you have followed the Obama administration’s new higher-education rating system, you’ve read that its stated purpose is to "measure college performance … so students and families have the information to select schools that provide the best value." In the measures, "value" is measured with statistics that are available to the federal government.
The great number of colleges in the United States represent all kinds of values and approaches: small liberal-arts colleges, large research universities, religious and secular, those that offer professional tracks, those that promote broad and interdisciplinary study, colleges with general studies and other requirements, colleges where students select their own courses, institutions that offer associate degrees, and those that award Ph.D.’s. There is no "one size fits all" measurement for the diversity and range of institutions. More...

Newsletter
49 abonnés
Visiteurs
Depuis la création 2 783 445
Formation Continue du Supérieur
Archives