Canalblog
Suivre ce blog Administration + Créer mon blog

Formation Continue du Supérieur

7 octobre 2011

Italy: Billion euro boost for southern universities

http://www.universityworldnews.com/layout/UW/images/logoUWorld.gifBy Lee Adendorff. The Italian government is to pump more than EUR1 billion (US$1.3 billion) into universities in the south of the country as part of a regeneration plan for the region. The decision was announced last week by Raffaele Fitto, minister for regional relationships and territorial cohesion, and Mariastella Gelmini, the education minister. Gelmini said: "It's a plan of extraordinary merit. It will serve to reinforce university building programmes and to increase excellence."
The funding is part of a comprehensive government development programme for Italy's struggling southern region, which still lags behind the north. A total of EUR1.014 billion is to be made available to institutions. The lion's share is destined for Puglia (EUR315 million) and Sardinia (EUR301 million) while EUR63.8 million will be dedicated to Calabria, EUR68.6 million to Campania, EUR88.7 million to Sicily and EUR22 million to Basilicata.
The central region of Abruzzo, struck by a devastating earthquake in 2009, is also to receive EUR5 million. The funding boost is aimed mostly at improving the physical development of universities, with the restoration or construction of infrastructure such as laboratories, libraries, student residences, cafeterias and information technology resources the main priorities.
EUR150 million is also being devoted to the development of research centres of excellence, advanced learning and innovation in Campania, Puglia, Calabria and Sicily. The political and economic divide between north and south is an ongoing and complex problem in Italy. Poverty levels are five times higher in southern Italy when compared to northern Italy, according to the consumer association Lega Consumatori, while unemployment in the south is more than double that of the north, a 2011 study by the Association for Southern Industrial Development, Svimez, reported.
Some 30% of southern university graduates aged between 15 and 34 neither work nor study and many have "abandoned the education system, believing further study is useless to getting a job", according to the Svimez study. A gradually increasing number of southern students are also choosing to study in northern institutions. A 2009 study by the social and political studies institute Censis showed that of the 354,000 students studying outside of their home regions, around a third came from the southern regions of Puglia, Calabria and Campania.
While just two of Italy's top nine universities came from the south, in a recent ranking published by Censis and the newspaper La Repubblica, there are exceptions. Professor Marino Regini, vice-rector of the Università degli studi di Milano and author of several studies on Italian universities, said: "It is difficult to make a neat distinction between north and south. In international rankings, Italy just about never appears in the top 100 universities but there are many Italian universities in the top 500 and these are almost all in the central and northern regions.
"This doesn't mean, however, that there are not excellent universities in the south - Federico II in Naples, for example, ranks among the best," he said.
Regini said that the extra funding would be a certain boost but that institutions needed to spend the money selectively.
"Even the best northern universities cannot compete internationally in every area and this is even more true in the south, where institutions need to choose the diversified areas that they can excel in and not use a scattergun approach to spending."
7 octobre 2011

Some surprises in THE university rankings

http://www.universityworldnews.com/layout/UW/images/logoUWorld.gifBy MacGregor. The California Institute of Technology has edged Harvard out of the global top slot in the just-published Times Higher Education World University Rankings 2011-12. The new ranking places Hong Kong as best in the world in university performance relative to gross domestic product, which tries to normalise the rankings for country size and wealth. This is the first time that the ranking has measured the number of universities a country has in the top 200 relative to its GDP which, Times Higher Education said in a statement, also highlights how important higher education is in each society.
"When viewed through this filter, Hong Kong is the world's number one nation, followed by the Netherlands, the UK and Switzerland, with Sweden making up the top five." They are followed by Ireland, Denmark, Israel, Singapore, New Zealand, Australia, Belgium, Canada, United States, Norway, Finland, Germany, South Korea, Austria and South Africa.
As usual, America dominates the global university rankings compiled by Times Higher Education (THE) with data supplied by Thomson Reuters. It has 75 universities in the top 200 and seven in the top 10. However, said THE, many state-funded US universities "are sliding downwards as public funding cuts start to take hold.
Britain comes next with 32 universities in the top 200, three more than last year, and three in the top 10. But THE expressed concern at a fall in the number of universities in the top 100, with more than before "languishing in the bottom half of the table", and at whether tuition fee changes might "sacrifice our intellectual capital to pay for the stupidity of bankers".
The Netherlands and Germany are next in the top countries list, with 12 universities each in the top 200. Then comes Canada with nine universities, Switzerland and Australia with seven each, and then with five each are Japan, Sweden and France. This makes Japan Asia's top country. "While France has one more top 200 institution this year than last, most of its top universities have dropped in position," said the THE statement. Italy does not have a single university on the list.
Hong Kong has four universities in the top 200, followed by South Korea, China, Belgium and Denmark with three each. With only eight million people, for Switzerland to have three universities in the top 70 is "testimony to the resources it puts into academia", said THE.
China's top two universities, Peking and Tsinghua, "are holding on among the elite, but the rankings show how much work China's other leading universities have to do to become truly world-class."
With two universities each are Singapore, Ireland, Israel and Norway, and countries with one university on the list are Austria, Brazil, Finland, New Zealand, South Africa, Taiwan and Spain. Taiwan used to have four universities in the top 200.
"All of Ireland's top universities have fallen sharply, reflecting a decline in funding and a simultaneous increase in student numbers."
Regarding individual universities, says the UK magazine, the biggest surprise is that Harvard, "has been knocked off the top spot for the first time in the eight years that Times Higher Education has published a global university ranking.
"Not only that, but Harvard has been forced to share second place with another California institution, Stanford University."
THE attributes the specialist California Institute of Technology's success to "consistent results across the indicators, and a steep (16%) rise in research funding". Other American universities in the top 10 are Princeton (fifth), Massachusetts Institute of Technology (seventh), University of Chicago (ninth) and University of California, Berkeley (tenth). Oxford passed Cambridge into fourth place, with Cambridge at sixth and Imperial College London ranked eighth. Oxford's improved performance was partly related to a refinement in methodology this year, made to reflect subject mix more fairly, and high scores for international outlook and research funding.
"With University College London also in the top 20, there is a widening gap in the UK between a super-elite and the rest of Britain's leading institutions," said THE.
The highest ranked university outside the United States and Britain is ETH Zürich, the Swiss Federal Institute of Technology Zürich, placed in position 15. The top Asian university is the University of Tokyo, at number 30. Although Middle Eastern universities performed well in the recent QS world university ranking, in the THE-Thomsons ranking Israel is the only country in the top 200, with Hebrew University of Jerusalem placed at 121 and Tel Aviv University at 166.
Brazil's University of São Paulo entered the list at 178 "thanks to an increase in industry funding and a considerable rise in reputational standing", while South Africa's University of Cape Town edged up four places to 103. Ann Mroz, editor of Times Higher Education, said the old order of top global universities could "no longer rest on its laurels. New powers are emerging, traditional hierarchies are facing challenges, the global competition for talent is heating up and these league tables help us understand this rapidly changing situation."
Data for the rankings were provided by Thomson Reuters from its Global Institutional Profiles Project, which collects and validate data about academic institutional performance across various aspects and disciplines.
Jonathan Adams, director of research evaluation for Thomson Reuters, said this year's methodology "was the most ambitious to date and captured information that profiled higher education institutions in a more rounded, global context".
The data judged universities on 13 performance indicators that, THE-Thomson Reuters said, examined all core missions of a global university: research, teaching, knowledge transfer and international activity. They included the world's largest reputation survey, involving 17,500 academics, and an analysis of 50 million citations. The methodology was also slightly refined to place arts, humanities and social sciences on "an equal footing" with science.
The 13 indicators were: 1- Industry income (innovation); 2- Reputation survey (teaching); 3- Staff-to-student ratio; 4- PhDs awarded/undergraduate degrees awarded; 5- PhDs awarded/academic staff; 6- Institutional income/academic staff; 7- Citation impact (normalised average citations per paper); 8- Reputation survey of research; 9- Research income/academic staff; 10- Scholarly papers/(academic staff plus research staff); 11- International students/total students; 12- International academic staff/total academic staff; and 13- Scholarly papers with one or more international co-authors/total scholarly papers.
Phil Baty, editor of the Times Higher Education World University Rankings, said: We have put huge effort into making the rankings comprehensive and balanced, and into ensuring that they are carefully calibrated to look at the broad range of each university's activities and to recognise the unique characteristics and structures of each university we examine."
See also on the blog THE World University Rankings 2011-2012: seulement 8 établissements français classés parmi les 400 mondiaux.
7 octobre 2011

Lancement du Pacte Alternance par Xavier Bertrand et Henri Lachmann

http://www.pactepme.org/images/logo_header.pngUne convention a été signée le 4 octobre dans la Salle des Accords, rue de Grenelle, entre Xavier Bertrand, ministre du Travail, de l'Emploi et de la Santé, et Henri Lachmann, Président fondateur et Vice-Président du Pacte PME. L'objectif est de faciliter l'accès à l'alternance des PME fournisseurs ou partenaires de grands groupes. Ceux d'entre eux qui choisiront de signer ce Pacte Alternance aideront les PME à accueillir des apprentis et alternants et mettront des alternants formés à leur disposition. Les premiers groupes engagés sont ls suivants: Lafarge, Vivendi, Thales, STMicroelectronics, Airbus, France Telecom - Orange, Schneider Electric. Ce programme sera piloté par le groupe de travail Compétences du Pacte PME. Texte du Pacte Alternance. Communiqué de presse.
Objectifs du Pacte Alternance

Renforcer les synergies entre grands groupes et PME fournisseurs ou partenaires. Augmenter le nombre d’apprentis et d’alternants en PME. Faciliter le recrutement par les PME de main d’oeuvre formée; Augmenter le taux de recrutement des apprentis et alternants à l’issue de leur formation, notamment au sein des PME qui en formulent le besoin.
Engagements du signataire

1. Aider les PME à accueillir des apprentis et des alternants
- Associer les PME aux forums Apprentissage/Alternance
- Accompagner la préparation des tuteurs des PME à cette mission, voire les associer à des séminaires de formation de tuteur/maître d’apprentissage organisés au sein des grands groupes
- Ne pas recruter des apprentis et alternants formés par une PME sans l’accord de la PME concernée
2. Mettre des alternants formés à disposition des PME
- Proposer aux PME les apprentis et alternants formés
- Informer les apprentis ou les alternants de l’existence de Pacte Alternance et de la plateforme d’échange dès leur arrivée au sein du groupe
- Ne pas imposer un recrutement à un fournisseur
Engagement demandé aux PME concernées

- Fournir un cadre structuré aux alternants recrutés (plan de carrière, responsable désigné,..)
- Se garder de toute discrimination et de tout manquement à l’éthique
Soutien
Le signataire disposera du soutien de l’association Pacte PME qui:
- mobilisera l’ensemble des PME de ses réseaux, directement ou avec le support de ses 19 organisations professionnelles et 16 pôles de compétitivité membres
- mettra en place une plateforme d’échanges en ligne entre fournisseurs et apprentis/alternants candidats ou déjà formés
- apportera un soutien aux groupes pour les campagnes d’information de leurs fournisseurs et partenaires
- structurera un suivi annuel des retombées et une communication sur des success stories.
http://www.pactepme.org/images/logo_header.png An agreement was signed on October 4 in Room Agreements, rue de Grenelle, between Xavier Bertrand, Minister of Labour, Employment and Health and Henri Lachmann, Chairman and founder and Vice Chairman of the SME Pact. The objective is to facilitate access to the alternation of small suppliers or partners of large groups. More...
7 octobre 2011

Diplômés étrangers: Wauquiez fait un geste

Les EchosPar Isabelle Ficek. Comment reculer tout en affichant la fermeté de l'exécutif en matière d'immigration. Hier, le ministre de l'Enseignement supérieur a annoncé dans « Le Monde » un geste sur la très controversée circulaire des ministères de l'Intérieur et du Travail publiée fin mai. Celle-ci a donné un coup d'arrêt au changement de statut d'étudiant à salarié, bloquant l'embauche de jeunes diplômés étrangers (« Les Echos » du 3 octobre). Laurent Wauquiez soutient cette circulaire mais remet en cause son application . « On corrige, c'est tout », a-t-il lancé, tout en précisant qu'il n'y aurait pas de nouveau texte. « Nous allons simplement indiquer aux préfets qu'il ne peut y avoir de "niet " opposé à tous les étudiants, quel que soit le cas de figure, la formation ou le métier », a-t-il déclaré. De grandes écoles et des universités qui avaient saisi le ministère de l'Enseignement supérieur sur des cas précis seront reçues la semaine prochaine, avant que soient données des « directives aux préfets ». Le collectif des étudiants étrangers diplômés de grandes écoles continue de demander le retrait de la circulaire, la réduction des délais d'attente de traitement des dossiers en préfecture et souligne que ce texte ne concerne pas « 200 étudiants » comme l'affirme Laurent Wauquiez, mais potentiellement 6.000 étudiants chaque année.

Les EchosIsabelle Ficek. Jak do tyłu podczas wyświetlania siły wykonawczej imigracji. Wczoraj, minister szkolnictwa wyższego przedstawione w "The World" gest w sprawie kontrowersyjnych Ministerstwa Spraw Wewnętrznych i okrągłe pracy opublikowane pod koniec maja To dało zatrzymał się do zmiany statusu od studenta do pracownika, blokując rekrutację młodych absolwentów ("Les Echos" 3 października). Więcej...
7 octobre 2011

40 ans après…

Par Paul Santelmann, Responsable de la Prospective à l’AFPA. Quelques années après la promulgation de la loi de 1971 sur la formation professionnelle, son principal concepteur, Jacques DELORS, confronté à quelques critiques naissantes formulées dans un numéro de la revue ESPRIT d'Octobre 1974, faisait part de son approche : « (…) il n'y aura pas de véritable égalisation des chances sans que soient modifiées les conceptions actuelles de la politique du travail, autrement dit tant que l’on acceptera de cantonner, pendant quarante cinq ans de leur vie active, les mêmes travailleurs dans les tâches les plus insipides, les plus dangereuses, tant que les castes minoritaires de diplômés pratiqueront un malthusianisme très intéressé, accapareront les recrutements, les filières privilégiées, en un mot les pouvoirs. L'égalisation des chances n’est qu'un slogan trompeur si la société n’accepte pas une mobilité et une fluidité des emplois telles que le plus grand nombre des travailleurs retrouvent l’espoir de changer de travail et de condition. La formation permanente est là pour leur donner le goût d’une vie différente, d’un travail plus difficile et plus intéressant, d’une promotion. C’est peut-être pour cela que certains la considèrent comme explosive et veulent, par conséquent, en limiter la portée à une sorte d’infirmerie sociale pour travailleurs en mal d’adaptation.» (« Au delà des illusions»  – Revue ESPRIT n° 10 – Octobre 1974).

A la lumière de cette réflexion de Jacques DELORS, voilà 10 questions auxquelles pourrait être soumis le système issu de la loi de 1971:
1. Ce système a t’il pondéré les inégalités d’accès et d’usage de la formation ou les a t-il aggravé ou accentué?
2. A t’il contribué à une mobilité professionnelle ascendante des actifs les moins qualifiés durant leurs carrière professionnelle?
3. A t’il pondéré le recours à la formation initiale et favorisé un étalement dans la durée de l’usage de la formation?
4. A t’il favorisé, de par le poids des prélèvements obligatoires, une régulation du système d’ensemble de la part des pouvoirs publics et des partenaires sociaux ? Par exemple sous l’angle de l’atténuation des disparités territoriales en matière d’accès aux savoirs ou d’une optimisation de l’usage des financements?
5. A t’il favorisé l’émergence d’organismes de formation contribuant notamment à la montée en compétences des moins qualifiés tout en étant en osmose avec les besoins des entreprises?
6. A t’il accompagné les modernisations et les mutations du système de production sous l’angle de la non exclusion des moins qualifiés?
7. A t’il contribué au renforcement du dialogue social et surtout à l’intégration des dimensions éducatives et formatives dans la négociation collective sur les qualifications, les classifications et les salaires?
8. A t’il contribué à une articulation entre politiques économiques et politiques sociales?
9. A t’il favorisé une synergie et une interaction avec le système éducatif et la formation initiale?
10. A t’il contribué à un renouvellement des méthodes et des contenus en matière de formation des adultes?
Voir aussi sur le blog 40 ans de formation professionnelle: tout ça pour ça!

Paul Santelmann juhataja Forecasting at AFPA. Paari aasta pärast väljakuulutamist 1971 õiguses kutseõppele, peamine kujundaja, Jacques Delors, seisab silmitsi kriitika tõstatatud areneva ajakirja Esprit d ' oktoobril 1974 teatas oma lähenemist: "(...) ei toimu tegelikud võrdsed võimalused ilma igasuguste muudatusteta olemasoleva kujunduse tööpoliitika, teisisõnu, kui me kokkuleppeliselt piirduda, nelikümmend viie aasta jooksul oma tööelu, sama töötajate ülesanded kõige lääge, kõige ohtlikum, sest kasti vähemuse lõpetajate malthusilainen väga huvitatud, arvele värbamine, privilegeeritud sektorid, ühesõnaga võimu. Võrdsete võimaluste tagamine kujutab endast petlik slogan, kui ettevõte ei võta liikuvus ja voolavus töökohti nagu rohkem töötajaid leida lootust töökohta vahetada ja tingimused. Elukestev õpe on siin, et anda neile aimu teistsugusest elust, töö raskem ja huvitav edendamine. See võib olla, miks mõned näevad seda kui lõhkeaine ja soovite, mistõttu reguleerimisala piirduks mingi laatsaret sotsiaaltöötajatele otsima kohanemist." Velle...
7 octobre 2011

Chroniques Horizon: la VAE en pratique

http://www.horizon-info.org/App_Themes/Default/images/header.pngLes chroniques HORIZON pour la semaine du 10 au 14 octobre 2011 seront consacrées à la VAE en pratique.
Pour accéder à l’emploi, obtenir à une formation ou évoluer dans son entreprise, être titulaire d’un diplôme est souvent nécessaire. Mais l’expérience professionnelle et associative est également très riche, sous réserve qu’elle puisse être reconnue à sa juste valeur. C’est le but de la Validation des Acquis de l’Expérience, qui permet de transformer son expérience en diplôme, titre ou certificat. Pour s’informer sur ses possibilités, que l’on soit employeur, salarié ou bénévole dans une association, un réseau de Points Régionaux Conseil organise partout en Poitou-Charentes des réunions collectives et propose un accompagnement à la démarche de VAE, qui comprend plusieurs phases.
Lundi : valoriser son expérience.
Mardi : pourquoi la VAE ?
Mercredi : entreprises et VAE.
Jeudi : les Points Régionaux Conseil.
Vendredi : les étapes d’une VAE.
Ecoutez ces chroniques sur les antennes des radios locales associatives de Poitou-Charentes et sur le site www.horizon-info.org.
http://www.horizon-info.org/App_Themes/Default/images/header.png HORIZON reviews for the week of October 10 to 14, 2011 will be devoted to: the VAE in practice.
To access to employment, get training or change in his business, he holds a degree is often required.
But the experience and associations is also very rich, provided it can be recognized at fair value. It is the purpose of the Validation of Acquired Experience, which transforms his experience certificate, diploma or certificate. More...
7 octobre 2011

Rapport sur les classements mondiaux d'universités et leur impact

http://www.cpu.fr/fileadmin/img/logo_cpu.jpgLe présent rapport a été établi à la demande de l’EUA en raison du nombre croissant de classements internationaux et nationaux dans l’enseignement supérieur, en réponse aux demandes de plus en plus nombreuses d’informations et de conseils adressées par les institutions membres quant à la nature de ces classements, en raison de l’intérêt manifesté par les gouvernements nationaux à l’égard des systèmes de classement et, enfin, compte tenu de la décision de la Commission européenne d’établir un « classement européen ». Télécharger le Rapport sur les classements mondiaux d'universités et leur impact.
Dans une perspective d’avenir, les producteurs de classements prennent des mesures visant à améliorer les méthodologies utilisées, ce que nous ne pouvons qu’encourager et que nous suivrons dans le cadre de rapports ultérieurs. Le Groupe d’experts internationaux sur les classements (IREG) a annoncé qu’il réaliserait un audit des différents classements. Nous espérons que des experts indépendants seront associés à cette initiative, ce qui renforcerait considérablement sa crédibilité. Parmi les questions en suspens à examiner à l’avenir figure celle de la « démocratisation » des classements et ce que cela suppose, pour que davantage d’universités dans le monde soient en mesure d’y trouver leur place. Certaines initiatives européennes récentes qui visent à étendre la portée des classements afin de prendre en considération les différentes missions de l’université semblent indiquer que le manque de données comparables à l’échelle internationale pose problème. Le débat se poursuivra, et ces questions feront notamment l’objet de futurs rapports de l’EUA.
Résumé

Au cours des dernières années, les classements d’universités ont acquis une importance croissante dans le monde entier. Le nombre de classements mondiaux a augmenté au cours de la réalisation de la présente étude et devrait continuer à augmenter. Les classements se sont mondialisés en 2003 lors de la publication des résultats du premier classement mondial d’universités par l’Université Jiao Tong de Shanghai. L’importance des classements semble connaître depuis lors une croissance exponentielle.
Les classements ont toujours suscité des controverses. Il peut être utile à la société de disposer d’un classement qui permette de déterminer qui est « le meilleur au monde » (et qui ne l’est pas). Les responsables politiques souhaitent utiliser des informations pratiques et synthétiques – précisément ce que fournissent les classements. Dans une période caractérisée par de considérables contraintes financières, les dirigeants dans différents pays sont de plus en plus intéressés par des comparaisons de la performance d’ établissement d’enseignement supérieur (EES) divers fondées sur des indicateurs objectifs. Cependant, les résultats des classements, et en particulier des classements mondiaux, dépendent fortement du choix des indicateurs et de la manière dont ils sont pondérés. Il est en outre difficile, voire impossible, de mesurer et de quantifier la qualité en tant que telle; c’est pourquoi les classements utilisent divers indicateurs indirects, dont certains n’ont que peu à voir avec la qualité réelle de l’enseignement ou de la recherche.

TABLE DES MATIÈRES
ÉDITORIAL ET REMERCIEMENTS 7
SIGLES ET ACRONYMES 9
GLOSSAIRE 10
RÉSUMÉ 11
I. INTRODUCTION 18
Objet du rapport 18
Brève histoire des classements 19
Aperçu des implications des classements 20
Principes de Berlin sur le classement des établissements d’enseignement supérieur 21
II. MÉTHODOLOGIES DES CLASSEMENTS MONDIAUX LES PLUS RÉPUTÉS 23
1. Classements internationaux publiés sous forme de palmarès 24
2. Classements axés uniquement sur la performance de la recherche (avec ou sans palmarès) 39
3. Classements multidimensionnels 46
4. Classements Internet 60
5. L’étalonnage concurrentiel sur la base des acquis de l’apprentissage 62
III. ANALYSE DES RÉSULTATS (IMPLICATIONS POUR LES UNIVERSITÉS) 64
Quelles sont les universités prises en considération dans les classements mondiaux d’université publiés sous forme de palmarès? 64
Les classements et la mission de recherche des universités 65
Les classements et la mission d’enseignement des universités 67
Biais et défauts 68
Le risque d’accorder trop d’importance aux positions dans les classements 70
IV. PRINCIPALES CONCLUSIONS 72
V. INTERPRÉTER LES RÉSULTATS DES CLASSEMENTS 73
BIBLIOGRAPHIE 79

Principes de Berlin sur le classement des établissements d’enseignement supérieur

Il est devenu manifeste que l’amélioration de la situation supposait la définition de principes communs auxquels pourraient adhérer les producteurs de classements. Un ensemble de lignes directrices a été élaboré par le Groupe d’experts internationaux sur les classements (IREG) en 2006. L’IREG a été fondé en 2004 par le Centre européen pour l’enseignement supérieur (CEPES) de l’UNESCO et l’Institute for Higher Education Policy de Washington. Il s’agit des « Principes de Berlin sur le classement des établissements d’enseignement supérieur » (IREG, 2006), ci-après les « Principes de Berlin ». Les Principes de Berlin sont, en substance, les suivants (IREG, 2006):
• Buts et objectifs: les classements devraient être explicites quant à leur objectif et à leurs publics cibles; reconnaître la diversité des établissements et prendre en considération leurs missions et objectifs différents; faire preuve de clarté quant à leurs sources d’information; indiquer les contextes linguistiques, culturels, économiques et historiques des systèmes d’enseignement qui font l’objet de classements;
• Création et pondération des indicateurs: les classements devraient être transparents quant à la méthodologie utilisée; sélectionner les indicateurs en fonction de leur pertinence et de leur validité; mesurer de préférence, et dans la mesure du possible, les résultats plutôt que les ressources; mettre en évidence les poids assignés aux différents indicateurs (le cas échéant) et limiter les modifications qui leur sont apportées;
• Collecte et traitement des données: les classements devraient prêter l’attention voulue aux normes éthiques et aux recommandations en matière de bonnes pratiques; utiliser autant que possible des données auditées et vérifiables; inclure des données collectées par des procédures appropriées à la collecte scientifique de données; appliquer des critères d’assurance qualité aux processus de classement eux-mêmes;
• Présentation des résultats des classements: les classements devraient permettre aux utilisateurs d’avoir une compréhension claire de l’ensemble des facteurs déterminant l’établissement d’un classement et leur permettre de choisir le mode de présentation des classements; être établis de façon à éliminer les erreurs ou à en réduire le nombre dans les données d’origine; être structurés et publiés de façon à permettre la correction des erreurs et défauts éventuels. Les Principes de Berlin constituent indéniablement des éléments d’orientation utiles, et les producteurs de classements affirment souvent qu’ils s’y conforment. La réalité semble néanmoins quelque peu différente. À titre d’exemple, une équipe de chercheurs de l’Université du Minnesota a quantifié les Principes de Berlin et classé les producteurs de classements eux-mêmes en fonction de leur conformité aux meilleures pratiques exposées dans les Principes de Berlin (Stoltz et al., 2010). Cette équipe de chercheurs a classé 25 classements d’universités européennes auxquels elle a attribué un score compris entre 1 et 5: 1 (non-conformité); 2 (faible niveau de conformité); 3 (niveau de conformité satisfaisant); 4 (bon niveau de conformité); 5 (excellent niveau de conformité). 13 classements sur 25 ont obtenu un score inférieur à 3 (niveau de conformité satisfaisant), parmi lesquels

II. MÉTHODOLOGIES DES CLASSEMENTS MONDIAUX LES PLUS RÉPUTÉS

Les classements peuvent être regroupés de différentes façons: en fonction de leur objet, des paramètres mesurés, de la présentation des résultats ou des effets recherchés. Aux fins du présent rapport, les classements internationaux examinés sont regroupés comme suit:
1. Les classements d’universités qui ont pour principal objet d’établir des palmarès

1.1 Le classement académique des universités mondiales (Academic Ranking of World Universities – ARWU) – Shanghai Ranking Consultancy11
1.2 Le classement du Times Higher Education (Times Higher Education World University Ranking – THE) – Times Higher Education
1.2.1 en coopération avec Quacquarelli Symonds (jusqu’en 2009)
1.2.2 en coopération avec Thomson Reuters
1.3 Le classement des meilleures universités mondiales (World’s Best Universities Ranking) – US News & World Report en coopération avec Quacquarelli Symonds
1.4 Le classement mondial des universités – Reitor (Рейтор)
2. Les classements axés uniquement sur la performance de la recherche (avec ou sans palmarès)

2.1 Le classement de Leiden (Leiden Ranking) – Université de Leiden
2.2 Le classement du Conseil d’accréditation et d’évaluation de l’enseignement supérieur de Taïwan (Performance Rankings of Scientific Papers for World Universities) – Higher Education Evaluation and Accreditation Council of Taiwan
2.3 L’évaluation de la recherche universitaire – Commission européenne
3. Les classements multidimensionnels –classements et classifications d’universités reposant sur un certain nombre d’indicateurs et n’ayant pas pour objet d’établir des palmarès

3.1 Le classement universitaire du CHE – Centre pour le développement de l’enseignement supérieur / Die Zeit
3.1.1 Le classement des universités du CHE
3.1.2 Le classement d’excellence du CHE
3.1.3 Autres classements du CHE
3.2 La classification U-Map – Centre d’études des politiques sur l’enseignement supérieur (Center for Higher Education Policy Studies - CHEPS) de l’Université de Twente
3.3 Le système européen de classement multidimensionnel des universités (U-Multirank) – projet financé par l’UE.
4. Les classements Internet
4.1 Le classement cybermétrique des universités du monde (Webometrics Ranking of World Universities)
5. L’étalonnage concurrentiel (benchmarking) sur la base des acquis de l’apprentissage
5.1 Le projet d’évaluation des résultats de l’enseignement supérieur (AHELO) – OCDE
Pour chaque classement, les aspects méthodologiques suivants sont analysés, pour autant qu’ils soient pertinents:
• Les indicateurs utilisés;
• Ce qui est effectivement mesuré et quels indicateurs indirects sont utilisés;
• Le calcul de la valeur des indicateurs et du score final le cas échéant;
• L’évolution de la méthodologie utilisée et son impact;
• Les forces, les faiblesses et les particularités du classement;
• Les autres produits associés au classement – analyses complémentaires (par sujet, comparaisons entre pays, informations aux étudiants, classements individuels);
• Autres remarques particulières au classement.
Il convient de noter que les classements les plus récents, en particulier U-Map, U-Multirank et AHELO, en étaient encore au stade du développement au moment de la rédaction du présent rapport. Des tentatives ont été faites pour analyser ces développements et fournir des informations qui peuvent présenter un intérêt pour l’EUA. Ces développements seront examinés de façon plus détaillée dans le prochain rapport en 2012.

IV. PRINCIPALES CONCLUSIONS

1. Il ne fait aucun doute que l’apparition des classifications et classements internationaux d’universités a galvanisé le monde de l’enseignement supérieur. Depuis l’apparition des classements mondiaux, les universités n’ont pas pu éviter les comparaisons nationales et internationales, ce qui a entraîné des changements dans le mode de fonctionnement des universités.
2. Les classements, et en particulier les classements mondiaux publiés sous forme de palmarès, ont adopté des méthodologies qui s’appliquent uniquement aux universités de recherche les plus réputées. De fait, ces méthodologies ne produisent des résultats stables que pour 700 à 1000 universités, qui ne représentent qu’une faible proportion des 17000 universités dans le monde. La majorité des universités du monde n’entrent pas dans l’équation. Si cette approche peut être utile pour établir des listes d’universités les plus réputées, le tourbillon d’activité que suscitent les classements, souvent à l’initiative des producteurs de classements eux-mêmes, se répercute sur l’ensemble des milieux universitaires. Cette agitation qui accompagne la publication de ces classements donne à penser que l’ensemble des établissements d’enseignement supérieur sont concernés, alors que les critères utilisés ne sont appropriés que pour les universités de recherche les plus renommées.
3. Jusqu’à présent, les classements ne portent que sur certaines missions de l’université. Peu d’entre eux en examinent la diversité, que ce soit au niveau des types d’établissement ou des missions qui leurs sont confiées.
4. D’aucuns affirment que les classements contribuent à la « transparence » des universités. Toutefois, les méthodologies des classements existants, en particulier des palmarès les plus réputés, continuent à manquer elles-mêmes de transparence. Il est difficile, voire impossible, sur la seule base d’informations publiques, de suivre les calculs selon lesquels les données brutes sont converties en valeurs d’indicateurs, à leur tour combinées en vue d’établir un score global.
5. « Il n’existe pas d’indicateur objectif » (AUBR, 2010). Le manque d’indicateurs appropriés devient évident quand il s’agit de mesurer la qualité de l’enseignement universitaire, pour laquelle il n’existe pas d’indicateur adapté. L’évaluation de la performance de la recherche pose moins de problèmes. Cependant, même les indicateurs bibliométriques utilisés pour mesurer la performance de la recherche induisent des biais et présentent des défauts. Les producteurs de classements s’efforcent d’améliorer les méthodologies utilisées, mais ces améliorations portent généralement sur la méthode de calcul, alors que le vrai problème réside dans l’utilisation d’indicateurs indirects inadéquats ou dans l’omission d’une partie des informations imputable aux contraintes méthodologiques. Les indicateurs indirects peuvent être améliorés, mais ils restent des indicateurs indirects.
6. Actuellement, il serait difficile d’affirmer que les avantages des informations présentées par les classements, ainsi que la plus grande « transparence », surpassent les effets négatifs de ce qu’il est convenu d’appeler les « conséquences indésirables » des classements.
7. Les récentes initiatives visant à développer des classifications, des classements et des évaluations de l’ensemble des établissements d’enseignement supérieur et de leurs différentes missions, comme l’évaluation de la recherche universitaire européenne commissionnée par l’UE (AUBR), les projets U-Map, U-Multirank et AHELO, ont toutes pour intention d’améliorer la situation. Il est toutefois trop tôt pour déterminer dans quelle mesure ils atteindront leurs objectifs. Ils en sont encore à différents stades de développement ou à la phase pilote de mise en oeuvre et doivent relever de multiples défis, liés notamment à la collecte de données et à l’élaboration de nouveaux indicateurs.
8. Les décisions politiques relatives à l’enseignement supérieur ne devraient pas se fonder uniquement sur les données présentées par les classements.

V. INTERPRÉTER LES RÉSULTATS DES CLASSEMENTS
Indications générales

1. Identifier l’objet et les publics cibles du classement. Pour certains classements, ces informations permettent de comprendre la sélection des indicateurs et d’autres caractéristiques. Dans d’autres cas, elles peuvent éventuellement révéler que le classement ne répond pas aux objectifs affichés.
2. Déterminer quels éléments sont effectivement mesurés et les comparer aux informations présentées sur les indicateurs ou groupes d’indicateurs utilisés. Ceci permet de déterminer si une valeur correspond à la mesure effective d’un aspect particulier ou si elle est le résultat d’un indicateur indirect.
3. Vérifier s’il est possible de suivre la méthode de calcul utilisée pour établir le résultat de chaque indicateur à partir de données brutes. Ceci permet de comprendre ce que la valeur finale représente réellement.
• Les indicateurs ont des dimensions différentes. C’est pourquoi les résultats doivent être recalculés afin de supprimer leur caractère dimensionnel et de les convertir en un score final unique. Pour ce faire, le résultat de l’université en question est souvent divisé par le résultat de l’université qui affiche la valeur la plus élevée au regard de cet indicateur, et le résultat obtenu est ensuite multiplié par 100. Par conséquent, le chiffre qui figure dans le tableau ne correspond généralement pas au nombre de publications, de citations, d’étudiants, etc. (comme indiqué en titre de colonne), mais au pourcentage du meilleur résultat.
• Vérifier si les résultats sont normalisés selon un aspect particulier. Les résultats des indicateurs de recherche sont normalisés par champ disciplinaire dans certains classements. C’est-à-dire que les résultats sont rapportés, par exemple, au nombre moyen de publications par membre du personnel ETP dans ce champ particulier, au nombre de citations par article dans ce champ particulier, etc. Cette méthode permet d’établir des comparaisons, mais elle implique également que le score de l’indicateur ne correspond pas à la mesure effective, mais représente une valeur composée qui fait intervenir une multiplication ou une division par certains facteurs – qui résultent d’un choix fait par les producteurs du classement. À cet égard, il serait utile de connaître les valeurs de ces facteurs, mais les présentations simplifiées des méthodologies utilisées, publiées avec les classements, n’apportent généralement pas ces précisions. La normalisation par champ disciplinaire n’est pas le seul processus de normalisation appliqué. Le classement THEThomson Reuters 2010 applique par exemple un mécanisme de « prise en considération de facteurs internationaux » (Pratt, 2010). Cependant, le site Internet public n’apporte aucune précision sur ces facteurs régionaux.
4. Accorder une attention particulière à la pondération des indicateurs et des groupes d’indicateurs – les différences peuvent être importantes. À titre d’exemple, dans le classement THE-Thomson Reuters 2010, le poids des citations représente 32,5%, contre 2,5% pour le poids attribué au financement de la recherche par l’industrie. L’indicateur de citations est par conséquent 13 fois plus important que l’impact du financement de la recherche par l’industrie.
5. Examiner le mode de collecte de données et identifier les sources de données. La compréhension du classement est facilitée lorsqu’il est possible de connaître la proportion de données objectives qui peuvent être vérifiées, de données basées sur des avis exprimés par des pairs ou des employeurs, de données basées sur des opinions formulées par des étudiants ou des membres du personnel de l’université, de données extraites de statistiques nationales, ou de données autodéclarées par des universités.

http://www.cpu.fr/fileadmin/img/logo_cpu.jpg Käesoleva aruande koostamisel palvel AÜE tõttu kasvava hulga rahvusvaheliste ja riiklike pingeread kõrghariduse, vastuseks üha rohkem teavet ja nõuandeid esitatud liige institutsioonide laadi need pingeread, sest huvi riikide valitsuste vastu skaala ja lõpuks, antud otsuse Euroopa Komisjoni üles looma "Euroopa kaardid." Lae aruanne maailma pingereas ülikoolide ja nende mõju. Velle...

6 octobre 2011

L'Institut Montaigne s'attaque à la formation professionnelle

Le GREP RH, site des relations Ecoles-EntreprisesUne étude* de l'Institut Montaigne sur la formation professionnelle livre un bilan extrêmement négatif sur les résultats et le fonctionnement de ce dispositif. Ses auteurs font une série de propositions "pour en finir avec les réformes inabouties".
Une formation professionnelle "coûteuse", "à l'efficacité souvent très limitée voire négative": les trois économistes Pierre Cahut, Marc Ferracci et André Zylberberg ne pêchent pas par excès d'optimisme dans le rapport qu'ils ont rédigé pour le think tank libéral créé par Claude Bébéar.
Une formation professionnelle inégalitaire

Alors que chaque année 27 milliards d'euros sont dépensés pour la formation professionnelle, cette somme ne profite que très peu aux salariés pour lesquels elle se révélerait la plus utile, jugent les auteurs du rapport.
La majorité du public qui bénéficie d'une formation est déjà formée alors que les plus fragiles restent écartés du dispositif, estiment-ils, rappelant qu'en 2007 le taux d’accès à la formation professionnelle continue n'était que de 23,4% pour les titulaires d’un CAP ou d’un BEP, contre 44,3% pour les diplômés de l’enseignement supérieur.
L'obligation légale fortement critiquée…

L'étude rendue à l'Institut Montaigne attribue "une partie des dysfonctionnement du système" à l'obligation légale imposée aux entreprises de financer la formation professionnelle. "Les entreprises privées sont obligées de 'former ou payer'", remarquent les rapporteurs, "en revanche, rien ne les contraint à cibler les dépenses de formation sur les publics les plus fragiles".
L'obligation légale, précisent-ils, est "une mesure à la fois centralisatrice et antiredistributive, puisqu’elle mène les petites entreprises à financer la formation des salariés des grandes entreprises, en moyenne plus qualifiés et mieux payés".
… et les OPCA mis en cause

Les organismes paritaires collecteurs agréés (OPCA) ne sont pas non plus épargnés. Alors que transite par eux la moitié du financement de la formation professionnelle des entreprises privées, les auteurs dénoncent l'opacité et les disparités qui existent quant à l'emploi de leurs frais de gestion, jugés "très généreux".
Enfin la récupération d'1,5% des sommes récoltées au profit des organisations syndicales, mène selon eux "à des gaspillages et à une utilisation des fonds de la formation professionnelle sans rapport avec ses objectifs".
Quatre propositions pour changer la face de la formation

Pour corriger les écueils de la formation professionnelle qu'ils pointent dans leur rapport, les trois auteurs font quatre propositions :
- Supprimer l'obligation légale pour la remplacer par un système de subventions dont le taux serait modulable en fonction d'objectifs sociaux clairement identifiés (séniors, jeunes,…),
- Instituer un "chèque formation" pour les chômeurs,dont le montant serait fixé au prorata de la distance à l'emploi,
- Transférer des OPCA à l'URSSAF la collecte de la cotisation spécifique, les OPCA pouvant conserver un rôle de conseil et d'ingénierie dans la formation professionnelle, mais de façon optionnelle,
- Faire évaluer et certifier les formations par des acteurs totalement indépendants.
* "Formation professionnelle, pour en finir avec les réformes inabouties", étude de l'institut Montaigne, octobre 2011.
Voir aussi sur le blog: Formation: les pistes de l'Institut Montaigne
.

GREP HR miejscu relacje Szkoły Firmy* Badania Instytutu Montaigne na szkolenia zawodowego książki bardzo negatywny raport na temat wyników i działanie tego urządzenia. Autorzy wprowadza szereg propozycji ", aby zakończyć niedokończone reformy."
* "szkoleń, w celu zakończenia niedokończonych reform" badania Montaigne Institute, październik 2011.
Zobacz także blog: Szkolenia: Ślady Institut Montaigne. Więcej...
6 octobre 2011

THE World University Rankings 2011-2012: seulement 8 établissements français classés parmi les 400 mondiaux

http://upload.wikimedia.org/wikipedia/en/thumb/7/74/WUR_logo_large.jpg/250px-WUR_logo_large.jpgVoici les huit établissements français qui figurent dans le THE World University Rankings 2011-2012, avec leur rang:
59 École Normale Supérieure.
63 École Polytechnique.
84 Université Pierre et Marie Curie.
141 École Normale Supérieure de Lyon.
169 Université Paris Diderot - Paris 7.
201-225 University of Strasbourg.
276-300 Université Montpellier 2.
351-400 Université Paris 13.
Voici le nombre d'universités classées dans les pays européenns:
United Kingdom 53, Allemagne 22, Italie 14, Pays-Bas 13, Suède 10, France 8, Belgique 7, Espagne 7, Suisse 7, Autriche 5, Danemark 5, Finlande 5, Irlande 5, Norvège 4, Portugal 4, Pologne 2, Russie 2, Estonie 1, Grèce 1, Islande 1, République tchèque 1. Située seulement au sixième rang européen, la France est loin derrière l'Italie et tout juste devant l'Espagne.
Voici le nombre d'universités classées en Asie: Japon 16, Chine 10, Taïwan 8, Corée 7, Hong Kong 6, Israël 4, Turquie 4, Singapour 2, Inde 1, Iran 1, Thaïlande 1. La France est donc au même niveau que Taïwan et arrive juste devant la Corée. Voici le nombre d'universités classées en Afrique: Afrique du Sud 3, Egypte 1. Voici le nombre d'universités classées en Océanie: Australie 21, Nouvelle-Zélande 6. Voici le nombre d'universités classées en Amérique du Nord: Etats-Unis 113, Canada 18. Voici le nombre d'universités classées en Amérique du Sud: Brésil 2, Chili 1.
Welcome to Times Higher Education’s list of the world’s top universities for 2011-2012.
The Times Higher Education World University Rankings were developed in concert with our rankings data provider, Thomson Reuters, with expert input from more than 50 leading figures in the sector from 15 countries across every continent. We believe we have created the gold standard in international university performance comparisons.
Our rankings of the top universities across the globe employ 13 separate performance indicators designed to capture the full range of university activities, from teaching to research to knowledge transfer. These 13 elements are brought together into five headline categories, which are:
    Teaching — the learning environment (worth 30 per cent of the overall ranking score)
    Research — volume, income and reputation (worth 30 per cent)
    Citations — research influence (worth 30 per cent)
    Industry income — innovation (worth 2.5 per cent)
    International outlook — staff, students and research (worth 7.5 per cent).
The overall world top 200 rankings, the banded lists of a further 200 "best of the rest" universities, and the six tables showing the top 50 institutions by subject are based on criteria and weightings that were carefully selected after extensive consultation. We recognise that different users have different priorities, so to allow everyone to make the most of our exceptionally rich data and gain a personalised view of global higher education, the tables on this site can be manipulated. Users can rank institutions by their performance in any one of the five broad headline categories to create bespoke tables or make regional comparisons via our area analyses.
http://lemonde-educ.blog.lemonde.fr/files/2011/10/lauriers-150x150.jpgPar Philippe Jacqué. Classement THE: un millésime 2011 qui laisse perplexe
Le classement mondial des universités de Shanghaï nous avait habitué à une très progressive évolution du rang de chaque institution. Le millésime 2011 du Times Higher Education (THE), publié ce jeudi 6 octobre, est beaucoup plus volatile. A n'y plus rien comprendre!
En tête de ce "ranking", fondé sur treize critères, se place cette année Caltech, le California Institute of technology, devant Harvard et Stanford. C'est la première fois qu'Harvard rate la première marche du classement du THE en huit années d'existence (avec une méthodologie du classement en constante évolution). C'est un petit événement. Dans le classement QS, Harvard avait déjà cédé la place à Cambridge...
Cinq français classés dans le top 200

Côté établissements français, le nouveau classement n'est pas très tendre. L'Ecole normale supérieure de Paris redevient le premier établissement français à la 59e, soit 17 places de moins qu'en 2010. L'Ecole Polytechnique se retrouve cette année 63e, soit 24 rangs en retrait par rapport à 2010. L'Ecole normale supérieure de Lyon perd pour sa part 41 rangs et se place cette année 141e.
Plus positif, l'université Pierre-et-Marie-Curie (UPMC) fait un bond de 56 places en un an, passant de la 140e à la 84e place. L'université Paris-Diderot entre pour sa part dans le top 200 à la 169e place...
Selon les auteurs du classement, la méthodologie a cette année été modifiée afin de mieux refléter les composantes sciences humaines et sociales. Ce qui a incontestablement aidé Paris-Diderot à rentrer dans le top 200. Pour l'UPMC, l'explication doit être ailleurs. Reste qu'en retouchant sans cesse sa méthodologie, le THE laisse un peu perplexe. On ne voit pas ce qui a changé radicalement en un an à l'ENS Lyon ou à l'UPMC, alors que le temps de l'université reste très "long". Mystère.
Voir aussi sur le blog Interview with Sjur Bergan, Rapport sur les classements mondiaux d'universités et leur impact, Le morcellement du paysage universitaire pèse encore sur son attractivité, Classement mondial des universités: comment mesurer la réputation et la valeur?, Classement mondial des universités: la France toujours à la traîne, Global Higher Education Rankings 2010.
6 octobre 2011

Enjeux et perspectives de l'AERES

http://www.aeres-evaluation.fr/extension/aeres_ext/design/aeres/images/css/logo.pngL’Agence en quelques chiffres
Les évaluations de l’AERES concernent en France:
- 170 établissements d’enseignement supérieur: 84 universités, 86 grandes écoles ou grands établissements
- 14 organismes de recherche, ainsi que l’agence nationale de la recherche (ANR).
- environ 1500 licences, 1600 masters (et leurs 6000 spécialités), 300 écoles doctorales
- près de 3000 unités de recherche
Une organisation et des moyens mis en oeuvre:
- 25 membres composent le conseil de l’AERES, garant de la qualité de ses évaluations
- 3 sections travaillant en synergie: section des établissements, section des unités de recherche, section
des formations et des diplômes
- un vivier de quelque 10000 experts, régulièrement renouvelés et formés, mobilisés chaque année à hauteur de 4500 d’entre eux environ
- 170 personnels administratifs et scientifiques
- 17 M€ de budget.
Veuillez trouver ci-après les éléments du dossier de presse: AERES-présentation institutionnelle, AERES-rapport 2010 en bref, Carte des vagues annuelles d'évaluation, AERES-Synthèse DNSEP.
Cycle quinquennal des vagues annuelles d’évaluation dans le champ de l’enseignement supérieur et de la recherche (Présentation par académie).

Des missions remplies dans un contexte de profonde mutation

Créée par la loi de programme pour la recherche de 2006 et installée en 2007, l’AERES est une autorité indépendante chargée de l’évaluation de l’ensemble des établissements d'enseignement supérieur et de recherche, des activités de recherche conduites par les unités de recherche, des formations et diplômes d’enseignement supérieur, ainsi que de la validation des procédures d’évaluation de leurs personnels. L’évaluation directe des personnels des entités évaluées n’entre pas dans ses missions.
L’action de l’AERES s’inscrit dans un contexte de changements structurels du dispositif français de recherche et d’enseignement supérieur. La loi de programme pour la recherche du 18 avril 2006, dont l’AERES est elle-même issue, marque, avec la création des pôles de recherche et d'enseignement supérieur (PRES), une politique de territorialisation plus forte qui modifie le paysage institutionnel. Les fondations, les pôles de compétitivité et, plus récemment, les initiatives « d’excellence » des investissements d’avenir sont aussi susceptibles de modifier l’organisation territoriale. Ceci incite à élargir le périmètre des évaluations. La loi relative aux libertés et responsabilités des universités du 10 août 2007, élargit les compétences budgétaires des universités et place l’évaluation à l’articulation entre l’autonomie des établissements et leur contractualisation avec la tutelle.
Dans ce contexte évolutif, la création de l’AERES traduit la volonté de se doter en France d’un outil d’évaluation, permettant plusieurs améliorations, car:
- L’évaluation par une agence unique (des structures distinctes préexistaient) est facteur d’homogénéité. Dans un domaine scientifique donné, toutes les unités de recherche ou les formations sont évaluées suivant les mêmes méthodes, quelle que soit leur structure d’appartenance.
- Le statut d’autorité indépendante confère une position d’impartialité vis-à-vis des parties prenantes. Dédiée à l’évaluation, l’AERES, n’interfère pas avec le pouvoir de décision des parties prenantes compétentes.
- L’évaluation conjointe des formations, des unités de recherche, et des institutions est source d’enrichissement des évaluations, en permettant une approche intégrée de l’évaluation.
- La publicité sur le site Internet des rapports d’évaluation, et des d’observations des entités évaluées, de la charte de l’évaluation et des procédures d’évaluation que l’agence met en oeuvre, est gage de transparence.
De nombreux acteurs sont concernés par les travaux de l’AERES

Les entités évaluées peuvent s’appuyer sur l’évaluation conduite par l’AERES pour mieux identifier leurs forces et leurs faiblesses et, par là, progresser dans leurs missions. Les pilotes des politiques d’enseignement supérieur et de recherche peuvent y recourir pour, notamment, étayer la contractualisation avec les établissements et le pilotage de la politique de recherche.
Grâce à l’information produite, l’AERES a vocation à répondre aux questions que se pose un large éventail d’acteurs:
- L’étudiant, pour s’orienter dans la poursuite de ses études ou en vue de son insertion professionnelle.
- Le chercheur ou l’enseignant-chercheur, pour identifier des modes d’action fertiles et disposer d’une vision stratégique dans son champ d’étude et les domaines disciplinaires adjacents.
- Le responsable d’une unité de recherche, pour élargir ses perspectives de production, de diffusion et de valorisation des connaissances, attirer les jeunes et les retenir, intégrer l’échelon européen, et prendre des options stratégiques.
- Le responsable de formation en quête de progrès dans les pratiques pédagogiques, notamment pour l’insertion professionnelle des étudiants, ainsi que pour le maintien ou l’évolution dans le monde du travail.
- Le responsable d’établissement d’enseignement supérieur ou d’organisme de recherche, pour identifier les options stratégiques, en matière de gouvernance à l’échelon territorial, national ou européen, mais aussi en termes de continuité des études, d’insertion professionnelle, de politique de recherche et de valorisation, et d’implantation internationale.
- L’acteur politique, économique ou social au niveau régional, pour connaître l’offre locale en termes de formation et de valorisation, et prendre la mesure des perspectives d’emploi et de développement économique.
- Le ministère de l’enseignement supérieur et de la recherche, et d’autres ministères, pour appréhender la diversité, les équilibres territoriaux et les nouvelles formes du dispositif français de recherche et d’enseignement supérieur, dont il anime la mutation.
- L’élu national pour mesurer les effets de la création d’une telle agence et être éclairé sur certains aspects des politiques publiques de recherche et d’enseignement supérieur.
- Le grand public, pour mieux s’orienter dans l’espace de l’enseignement supérieur et de la recherche et mesurer les effets des efforts auxquels il contribue.
http://www.aeres-evaluation.fr/extension/aeres_ext/design/aeres/images/css/logo.png Agencja w skrócie
Oceny aeres dotyczą we Francji:

- 170 instytucji szkolnictwa wyższego: 84 uniwersytetów, 86 szkół lub dużych instytucji

- 14 organizacje badawcze oraz Agencji Badań Narodowego (ANR).

- Około 1500 licencji, 1600 Masters (6000 i specjalności), 300 doktorantów

- Prawie 3.000 jednostek naukowych

Organizacji i zastosowanych środków:

- 25 członków, składa się z zarządu aeres, gwarantuje jakość swoich ocen

- 3 części pracy w synergii: przekrój instytucji, jednostek badawczych sekcji, sekcji

szkolenia i kwalifikacji

- Basen z około 10 000 ekspertów, regularnie aktualizowany i przeszkolone zmobilizować każdego roku aż
4500 z nich około
- 170 pracowników administracyjnych i naukowców

- € 17 mln euro
. Więcej...
Newsletter
49 abonnés
Visiteurs
Depuis la création 2 786 354
Formation Continue du Supérieur
Archives