Canalblog
Suivre ce blog Administration + Créer mon blog
Formation Continue du Supérieur
27 mars 2016

Paper on Standardized Assessments of Learning

HomeA new report from New America, a think tank, looks at research on the assessment of college learning. The paper by Fredrik DeBoer, a lecturer at Purdue University, tracks the overall push for more assessment and data collection in higher education. Read more...

26 mars 2016

Campagne d’évaluation 2016-2017 - Stratégie de coordination territoriale Aix-Marseille-Provence-Méditerranée

AERESDans le cadre de la campagne d’évaluation 2016-2017 (vague C), le HCERES a rencontré les établissements concernés courant janvier/février, lors de 8 réunions organisées par site (site alsacien, site champenois, Corse, site Limousin/Poitou-Charentes/Centre Val-de-Loire, site lorrain, site marseillais, site niçois et site picard).
Site marseillais
Programme d’évaluation institutionnelle
  • L’université d’Aix-Marseille Université (AMU)
  • L’université d’Avignon et des Pays de Vaucluse (UAPV)
  • L’université de Toulon
  • L’Ecole centrale de Marseille
  • L’Institut d’études politiques (IEP) d’Aix-en-Provence
  • L’Ecole nationale supérieure d’architecture (ENSA) de Marseille
  • La stratégie de coordination territoriale portée par AMU
Un site organisé en mode « association »
Une méthodologie d’évaluation en cours de construction, mais dont le cadre général a été proposé et validé lors de la réunion de prélancement de novembre 2015, et lors du conseil du HCERES du 14 décembre 2015 :
  • Une évaluation de l’université coordinatrice accolée à celle de la stratégie de coordination territoriale, en aval de l’évaluation des établissements associés
  • Un comité d’évaluation renforcé, distinct de ceux des autres établissements du site, qui analysera l’établissement en tant qu’entité autonome d’une part et en tant que coordinateur d’autre part.
  • Les rapports d’autoévaluation :
  • un RAE relatif à la stratégie de coordination transmis par l’université coordinatrice
  • un RAE transmis par chacun des membres associés.
  •  Les rapports d’évaluation :
  • un rapport d’évaluation de la stratégie de coordination territoriale rédigé par le comité d’évaluation de l’université coordinatrice
  • un rapport d’évaluation pour chacun des établissements, rédigé par les comités d’évaluation respectifs
  •  Une prise en compte des points de vue des différents comités d’évaluation d’établissements pour nourrir le rapport d’évaluation de la stratégie de coordination
  • Une prise en compte des évaluations des formations et des entités de recherche (au niveau de l’évaluation de chaque établissement et au niveau de l’évaluation de la stratégie de coordination territoriale)
  • Une prise en compte des autres établissements partenaires, non évalués, par une demande de « note de positionnement »
Les points à aborder:
  •  Périmètre de l’évaluation : définition du périmètre du site, des champs d’activité relevant de l’évaluation de la stratégie de coordination territoriale, de leur articulation avec ceux des établissements évalués
  • Paramètres de contexte : évaluation des PIA, contrat pluriannuel de site, modèle d’association en « étoile » et conventions d’association bilatérales….
  •  Articulation avec l’évaluation des établissements
  •  Prise en compte des autres partenaires partie prenante (établissements, organismes, collectivités, partenaires socio-économiques, autres…)
  •  Identification des premières attentes :
    • vis-à-vis de l’évaluation de la stratégie de coordination territoriale
    • pour la structuration des synthèses recherche effectuées au niveau du site
    • organisation de l’offre de formation en « champs de formation »
  •  Articulation entre référentiel d’évaluation externe des établissements et référentiel d’évaluation externe des stratégies de coordination territoriale conçu pour les sites organisés sous forme de Comue. Voir l'article...
26 mars 2016

La campagne d’évaluation 2016-2017 est lancée !

AERESDans le cadre de la campagne d’évaluation 2016-2017 (vague C), le HCERES a rencontré les établissements concernés courant janvier/février, lors de 8 réunions organisées par site (site alsacien, site champenois, Corse, site Limousin/Poitou-Charentes/Centre Val-de-Loire, site lorrain, site marseillais, site niçois et site picard).
Ces réunions d'information et d'échanges, qui ont rassemblé plus de 1000 participants ont été l'occasion de présenter les modalités par type d'évaluation (sites, établissements, recherche, formations) et de mettre l'accent sur les nouveautés et évolutions.
Retrouvez, ci-dessous, les supports de présentation des différentes réunions :
Évaluation de la coordination des politiques de site :
10 mars 2016

Language of evaluation: How PLA evaluators write about student learning

International Review of Research in Open and Distributed LearningVery few studies (e.g., Arnold, 1998; Joosten-ten Brinke, et al., 2009) have examined the ways in which evaluators assess students’ prior learning. This investigation explored the ways that evaluators described students’ prior learning in final assessment reports at a single, multiple-location institution. Results found four themes; audience, voice, presentation of the learning, and evaluation language. More...

7 mars 2016

Devoir semestriel : se croiser

Sur le blog "Histoires d'universités" de Pierre Dubois. L’université de Strasbourg pratique le contrôle continu intégral. En Faculté des sciences historiques, il est proposé un devoir individuel pour chaque semestre de licence (avec une possibilité de rattrapage). Un tel travail est formateur, mais oblige à sanctionner lourdement le plagiat. Suite...

5 mars 2016

L’évaluation de performance de Yahoo! devant les juges

logo Entreprise & CarrièresPar Caroline Talbot. Un ancien salarié affirme que les notations ont permis de le licencier à moindre coût pour insuffisance. Beaucoup d'autres sont partis de la même façon  selon son avocat : la société de Sunnyvale aurait ainsi évité les contraintes liées aux procédures collectives. Voir l'article...

28 février 2016

Grading on a Curve

HomeBy Colleen Flaherty. Trident Technical College in Charleston, S.C., is touting the increased student success it’s seen since adopting seven-week terms two and a half years ago -- so much so that other community colleges are now expressing interest in that schedule. Read more...

28 février 2016

Assessing, Without Tests

HomeBy Paul Fain. Colleges are feeling heat to prove that their students are learning. As a result, a growing number of colleges are measuring intended “learning outcomes” as well as issuing grades. But fewer are using standardized tests than was the case a few years ago. Read more...

27 février 2016

New Common Core assessments pass the bar for measuring the most important content in the standards

By . Few policy issues over the past several years have been as contentious as the rollout of new assessments aligned to the Common Core Standards (CCS). What began with more than 40 states working together to develop the next generation of assessments has devolved into a political mess. More...

19 février 2016

Les pratiques d’évaluation individuelle professionnelle dans les fonctions publiques passées en revue par le LI-RH

Berger LevraultLe laboratoire d’innovation et de prospective ressources humaines (LI-RH), installé le 10 mars 2014, est le fruit d’un partenariat entre le centre de formation au management du ministère de la Défense (CFMD), le commissariat général à la stratégie et à la prospective (CGSP), la direction générale de l’administration et de la fonction publique (DGAFP),  l’institut de la gestion publique et du développement économique (IGPDE) et France Stratégie. Son objet : "identifier les sujets innovants relatifs aux pratiques de ressources humaines et mutualiser les connaissances et les données en vue de la publication de travaux communs par l’ensemble des partenaires", incluant l’analyse comparative avec le secteur public à l’international. More...

Newsletter
49 abonnés
Visiteurs
Depuis la création 2 783 504
Formation Continue du Supérieur
Archives