Le Times Higher Education (THE) vient de publier un palmarès un peu particulier : le classement des établissements ayant formé le plus de PDG. Et, dans le Top 10, trois établissements français se hissent en bonnes positions !
Quelles sont les écoles qui forment le plus de grands patrons ? C'est sur cette question que le Times Higher Education (THE), magazine britannique, s'est penché. Pour arriver à un tel résultat, le THE s’est basé sur le Fortune Global 500, une liste des 500 entreprises mondiales classées selon l’importance de leur chiffre d’affaires. "D’une manière générale, les pays représentés dans notre classement reflètent ceux classés dans le Fortune Global 500, où l’on constate encore une domination des États-Unis, de l’Asie et de l’Europe", indique le THE. Suite...
Les Principes de Berlin sur le classement des établissements d'enseignement supérieur
Le classement des établissements et des programmes d’enseignement supérieur est un phénomène mondial. L’exercice de classement est utile à bien des égards : il répond aux demandes des consommateurs de disposer d’informations facilement interprétables concernant la position des établissements d’enseignement supérieur ; il stimule la compétition entre ceux-ci; il fournit une partie des critères d’allocation de fonds; et il aide à différencier les types d’établissements ainsi que les programmes et disciplines. De plus, une fois correctement compris et interprété, il contribue à la définition de la « qualité » des établissements d’enseignement supérieur dans un pays donné, en complétant le travail rigoureux effectué dans le cadre des évaluations de la qualité et des expertises effectuées par des agences d’accréditation publiques et indépendantes. C’est pourquoi les classements des établissements d’enseignement supérieur sont devenus l’un des éléments de responsabilisation et d’assurance qualité au niveau national ; c’est pourquoi ils sont susceptibles de se développer dans de nombreux pays. De ce fait, il est important que ceux qui établissent des classements se sentent responsables de la qualité de leur processus de collecte des données, de la méthodologie utilisée, et de la diffusion des résultats.
Dans cette perspective, un Groupe d’experts internationaux en classements – IREG [International Ranking Expert Group] a été fondé en 2004 par le Centre européen pour l’enseignement supérieur de l’UNESCO (UNESCO-CEPES) de Bucarest et l’Institute for Higher Education Policy de Washington, D.C. C’est à partir de cette initiative que s’est tenue la deuxième réunion de l’IREG (Berlin, les 18-20 mai 2006) afin de formuler un ensemble de principes concernant la qualité et les bonnes pratiques dans les classements des établissements d’enseignement supérieur – appelés les Principes de Berlin sur le classement des établissements d’enseignement supérieur.
On espère que cette initiative établisse un cadre pour l’élaboration et la dissémination des classements – qu’ils aient une portée nationale, régionale ou mondiale – afin de contribuer à un processus d’amélioration et de sophistication continues des méthodologies employées pour établir ces classements. Du fait de l’hétérogénéité des méthodologies des classements, ces principes de bonnes pratiques au niveau des classements seront utiles pour le développement et l’évaluation du processus de classement.
Les classements devraient :
A) Buts et objectifs des classements
1. Etre l’une des nombreuses approches de l’évaluation des ressources, des processus et des résultats de l’enseignement supérieur. Les classements peuvent offrir des informations comparatives et une meilleure compréhension de l’enseignement supérieur, mais ne devraient pas être la méthode principale utilisée pour évaluer ce qu’est, et ce que fait, l’enseignement supérieur. Les classements offrent une perspective basée sur le marché qui peut seulement compléter le travail effectué par le gouvernement, les autorités responsables de l’accréditation, et les agences d’expertise indépendantes.
2. Etre explicites quant à leur objectif et à leurs publics cibles. Les classements doivent être conçus en tenant compte de leur objectif. Les indicateurs élaborés pour atteindre un certain objectif ou pour informer un certain public cible peuvent ne pas être adéquats pour d’autres objectifs ou publics cibles.
3. Reconnaître la diversité des établissements et prendre en considération leurs différentes missions et objectifs. Par exemple, les critères de qualité pour les établissements axés sur la recherche, sont tout à fait différents de ceux qui sont pertinents pour les établissements qui assurent un plus large accès à des communautés défavorisées. Les établissements qui sont classés et les experts qui sont à la base du processus de classement doivent être fréquemment consultés.
4. Etre clairs quant à la gamme de sources d’information employées dans les classements et des informations rendues accessibles par chaque source. La pertinence des résultats des classements dépend des publics qui reçoivent les informations et des sources de ces informations (bases de données, étudiants, enseignants ou employeurs). Une bonne pratique serait de combiner les différentes perspectives fournies par ces sources afin d’obtenir une image plus complète de chaque établissement d’enseignement supérieur inclus dans un classement donné.
5. Indiquer les contextes linguistiques, culturels, économiques et historiques des systèmes d’enseignement qui font l’objet de classements. Les classements internationaux devraient être particulièrement attentifs à toute possibilité de biais et être précis sur leurs objectifs. Les Etats ou les systèmes ne partagent pas tous les mêmes valeurs et croyances concernant ce qui constitue la « qualité » dans les établissements tertiaires, et les systèmes de classement ne devraient pas être conçus dans le but d’imposer des comparaisons inadéquates.
B) Création et pondération des indicateurs
6. Etre transparents quant à la méthodologie employée pour la création de classements. Le choix des méthodes employées pour élaborer les classements devrait être clair et sans équivoque. Cette transparence devrait inclure le calcul des indicateurs ainsi que l’origine des données.
7. Choisir les indicateurs en fonction de leur pertinence et de leur validité. Le choix des données devrait se baser sur la reconnaissance de la capacité de chaque critère à représenter la qualité et les atouts académiques et institutionnels, et non pas sur la disponibilité des données. Les raisons justifiant la prise en compte de chaque type de mesures ainsi que ce qu’elles sont censées représenter doivent être explicités.
8. Mesurer de préférence, et dans la mesure du possible les résultats plutôt que les ressources. Les données concernant les ressources sont pertinentes parce qu’elles reflètent la situation générale d’un établissement donné et sont plus fréquemment disponibles. L’analyse des résultats offre une évaluation plus correcte de la position et/ou de la qualité d’un établissement ou d’un programme donné. Les producteurs de classements devraient s’assurer qu’un juste équilibre est atteint.
9. Mettre en évidence les poids assignés aux différents indicateurs (si employés) et limiter leurs changements. Les changements de poids font que les utilisateurs ont du mal à discerner si le statut d’un établissement ou d’un programme a changé dans la cadre des classements à cause d’une différence inhérente ou du fait d’un changement méthodologique.
C) Collecte et traitement des données
10. Accorder une attention sévère aux standards éthiques et aux recommandations concernant les bonnes pratiques formulées dans ces Principes. Afin d’assurer la crédibilité de chaque classement, les personnes responsables de la collecte et de l’utilisation des données, ainsi que des visites sur place, devraient être aussi objectifs et impartiaux que possible.
11. Utiliser des données auditées et vérifiables chaque fois que cela est possible. Ces données présentent plusieurs avantages, comme le fait qu’elles ont été acceptées par les établissements et qu’elles sont comparables et compatibles entre établissements.
12. Inclure des données qui sont collectées par des procédures appropriées de conformes à la collecte scientifique de données. Les données rassemblées à partir d’un groupe non-représentatif ou incomplet d’étudiants, d’enseignants ou d’autres parties pourraient ne pas représenter un établissement ou un programme, et devraient être exclues.
13. Appliquer des critères d’assurance qualité aux processus mêmes de classement. Ces processus devraient tenir compte des techniques d’évaluation des établissements et mettre à profit ces connaissances pour évaluer les classements eux-mêmes. Les classements devraient être des systèmes d’apprentissage capables d’utiliser ces connaissances pour améliorer leur méthodologie.
14. Appliquer des critères organisationnels qui accroissent la crédibilité des classements. Cela peut comprendre des groupes à vocation de conseil, ou de surveillance, de préférence à participation internationale.
D) Présentation des résultats des classements
15. Offrir aux consommateurs une compréhension claire de l’ensemble des facteurs employés pour la construction d’un classement, ainsi que le choix de la manière dont les classements doivent être présentés. Ainsi, les utilisateurs des classements pourront mieux comprendre les indicateurs utilisés dans le classement d’établissements ou de programmes. De plus, ils devraient avoir la possibilité de faire leurs propres choix quant au poids accordés à ces indicateurs.
16. Etre compilés d’une manière qui élimine ou réduise le nombre d’erreurs au niveau des données d’origine, et être organisés et publiés d’une manière qui permette la correction des erreurs et des fautes potentielles. Les établissements et le public devraient être informés au sujet des erreurs apparues durant le processus.
Berlin, le 20 mai 2006
Classement THE des écoles formant le plus de grands patrons
2014 Best Colleges Preview: Top 10 Public Universities
Interested in exploring the rankings of these schools and others? Visit usnews.com on Sept. 10. Applying to college is a journey that involves finding the right school, submitting applications and then – if you're lucky – choosing among the acceptance letters and financial aid awards to find that place you'll call home for the next few years. To steer you in the right direction, U.S. News surveys colleges and universities each year and ranks nearly 1,400 of them in different categories according to our methodology. Here, we offer a sneak peek of the 2014 Best Colleges rankings. Read more...
Tous les classements étudiants dévoilés durant cet été
Durant les mois de juillet et d'août, l'actualité étudiante s'est quelque peu calmée, mais le relai a été pris par une vague de palmarès divers et variés. Du classement mondial des universités à celui de Shanghai, en passant par les palmarès de The Economist et du Financial Times, Orientations vous propose un retour sur tous les classements étudiants qui ont été dernièrement publiés.
Classement mondial des universités
Le Center for World University Rankings a publié début juillet son édition 2013 du classement mondial des 100 meilleures universités. Pour ce faire, l'étude s'appuie notamment sur sept indicateurs qu'elle considère comme "objectifs" et "robustes" : qualité des membres du corps enseignant, mesurée par le nombre de prix et de reconnaissances internationaux reçus par les professeurs ; des publications effectuées par les enseignants… Suite...
College Rankings and the Will to Swagger
By Eric Hoover. College officials often use colorful language when discussing U.S. News & World Report’s annual ranking of colleges. Over the years, I’ve heard the list described as “corrosive,” “immoral,” and “real evil.” Some of the other terms aren’t printable.
Naturally, those who publish rival rankings also have choice words for the Best Colleges guide. In a news release, Washington Monthly’s editor, Paul Glastris, described his own publication’s college rankings, just published on Monday, as an answer to U.S. News, which, he wrote, “relies on crude and easily manipulated measures of wealth, exclusivity, and prestige.” More...
Looking beyond the Shanghai university rankings
By Karen MacGregor. Interviews with leaders of institutions featured in the Academic Ranking of World Universities culminated recently in The Shanghai Jiao Tong Top 200 Research Universities Encyclopedia – an effort “to go beyond the numbers associated with rankings to better understand some of the most important institutions in our collective future”. The interviews identified shared visions and trends, including the need for more involvement with the private sector in research, the importance of student mobility and developing entrepreneurial skills, mission shifts towards economic development, and the role of universities in tackling global challenges. More...
U.S. once again king of the ranking jungle
The time of the year has come. Shanghai Jiao Tong University has published its much awaited Academic Ranking of World Universities 2013 (ARWU), presenting this year’s top 500 universities worldwide.
To nobody’s surprise, the lion’s share goes to the United States, with 17 universities in the top 20 and 149 in the top 500 (one fewer than last year). Harvard University continues to take the first position, followed by Stanford University (2nd) and the University of California, Berkeley (3rd), which jumped ahead of the Massachusetts Institute of Technology (4th).
Besides the United States, Great Britain and Switzerland also make it into the top 20, with Cambridge coming in 5th, Oxford 10th and ETH Zurich 20th, the latter being the first university in Continental Europe to ever enter the top 20 in the history of ARWU. With 75 institutions among the top 200, Europe scores well overall, although the distribution between countries remains quite unbalanced. In the Asia-Pacific region, which counts 30 institutions among the first-ranked 200, the University of Tokyo takes the crown (21st), followed by Kyoto University (26th) and the University of Melbourne (56th). Africa, with only four universities in the top 500 and none of them in the top 200, makes a sad ‘bottom of the barrel’.
Although the rise of Asia in the ‘official top 200’ is not solely driven by China as many a man has feared, China does have the second largest number of universities in the overall top 500 (42, with seven of them in the top 200) ranking higher than Germany (38) and, surprisingly, the United Kingdom (37), which lost a place compared to 2012.
Overall, the 2013 Shanghai ranking of universities holds only few surprises. Like many other rankings, ARWU links university scores to academic and research performances. This heavy reliance on research has earned it some serious criticism over the past, contributing to the present proliferation of global rankings wishing to ‘do things differently’ (e.g. U-Multirank, see ACA Newsletter – Education Europe, February 2013). But despite the on-going debate on the usefulness and accuracy of big international rankings, countries like Russia, China and Japan, to name only a few, are investing great amounts of money to increase their number of universities in the top 100.
U-Map: Not ranking, profiling!
Please welcome the new U-Map website which has been publicly launched this month. U-Map functions as a university classification instrument, and is intended to facilitate comparison between universities. The U-Map project was elaborated by the Center for Higher Education Policy Studies (CHEPS) and has been co-financed by the European Commission since 2004. Since then, U-Map has gone through six different development stages. After its implementation in 2010-2011 and its launch for the universities of the Nordic states and the Netherlands in the same period, the U-Map tool will now be implemented across Europe and beyond.
Are you wondering which universities offer the most career-oriented programmes with direct links to the demands of the labour market? Would you like to know which universities have the highest percentage of international students? Are you looking for information on universities’ revenue from knowledge exchange activities? If so, U-Map might provide you with some useful answers byidentifying university profiles according to a variety of indicators. In fact, whereas its companion project U-Multirank (see ACA Newsletter - Education Europe, February 2013 and June 2013) aims at offering a multidimensional and user-driven approach to establish university rankings based on the selection of available indicators (research, teaching and learning, international orientation, knowledge transfer and regional engagement) chosen by the user him or herself, U-Map does not intend to rank but rather to profile universities. This means that U-Map illustrates universities on the basis of 29 separate indicators grouped together in six categories (teaching and learning profile, student profile, research involvement, regional involvement, involvement in knowledge exchange and international orientation).
U-Map is a useful tool which helps to indicate the strengths of universities according to different fields. Comparably to U-Multirank, U-Map allows to establish a more nuanced approach towards the higher education sector, but does not put emphasis on a hierarchical ranking as such.
Les 10 grands enseignements du classement de Shanghai 2013
De la suprématie des Etats-Unis à l'émergence croissante de la Chine, en passant par la progression de la plupart des établissements universitaires français et des critiques qui ne cessent de se développer, Orientations vous dévoile les 10 grands enseignements du classement de Shanghai 2013.
Le classement de Shanghai, traditionnel marronnier de l'été en matière de classement étudiant, vient d'être publié. Très attendue comme chaque année bien qu'étant très controversée, l'édition 2013 du palmarès établie par l'université Jiaotong confirme certaines tendances des dix années précédentes, et en révèle d'autres toutes nouvelles. Le point au travers des 10 grands enseignements de ce classement mondial des meilleures universités. Suite...
Academic Ranking of World Universities 2013
The 2013 Academic Ranking of World Universities (ARWU) is released today by the Center for World-Class Universities at Shanghai Jiao Tong University. Starting from a decade ago, ARWU has been presenting the world Top 500 universities annually based on transparent methodology and reliable data. It has been recognized as the precursor of global university rankings and the most trustworthy one.
Harvard University continues to take the first place in the 2013 list. The Top 10 universities are: Harvard, Stanford, Berkeley, MIT, Cambridge, Caltech, Princeton, Columbia, Chicago and Oxford. In Continental Europe, ETH Zurich (20th) in Switzerland takes first place and it becomes the first university in this region listed among the world Top 20 in the history of ARWU. Pierre & Marie Curie (37th) in France overtakes Paris-Sud (39th) as the second best university in Continental Europe. The best ranked universities in the Asia-Pacific region are the University of Tokyo (21st) and Kyoto University (26th) in Japan, and the University of Melbourne (56th) in Australia.
The University of Groningen (92nd) in Netherlands enters the Top 100 list for the first time. There are totally 11 universities breaking into the Top 500 list in 2013, among which King Abdullah University of Science and Technology in Saudi Arabia, the University of Coimbra in Portugal, and the Catholic University of Korea in South Korea make their first appearance.
The Center for World-Class Universities also releases the 2013 Academic Ranking of World Universities by Broad Subject Fields (ARWU-FIELD) and 2013 Academic Ranking of World Universities by Subject Fields (ARWU-SUBJECT). Top 200 universities in five broad subject fields and in five selected subject fields are listed, where the best five universities are:
- Natural Sciences and Mathematics – Harvard, Berkeley, Caltech, Princeton and Cambridge
- Engineering/Technology and Computer Sciences – MIT, Stanford, Berkeley, UT Austin and UIUC
- Life and Agriculture Sciences – Harvard, Cambridge, MIT, UC San Francisco and Washington (Seattle)
- Clinical Medicine and Pharmacy – Harvard, UC San Francisco, Washington (Seattle), Johns Hopkins and Columbia
- Social Sciences – Harvard, Chicago, Stanford, Columbia and Berkeley
- Mathematics – Princeton, Harvard, Berkeley, Cambridge and Pierre & Marie Curie
- Physics – Harvard, MIT, Berkeley, Caltech and Princeton
- Chemistry – Harvard, Berkeley, Stanford, Cambridge and ETH Zurich
- Computer Science – Stanford, MIT, Berkeley, Princeton and Harvard
- Economics/Business – Harvard, Chicago, MIT, Stanford and Berkeley
The complete lists and detailed methodologies can be found at the Academic Ranking of World Universities website at http://www.ShanghaiRanking.com/.
Academic Ranking of World Universities (ARWU): Starting from 2003, ARWU has been presenting the world Top 500 universities annually based on a set of objective indicators and third-party data. ARWU has been recognized as the precursor of global university rankings and the most trustworthy league table. ARWU adopts six objective indicators to rank world universities, including the number of alumni and staff winning Nobel Prizes and Fields Medals, the number of Highly Cited Researchers, the number of articles published in journals of Nature and Science, the number of articles indexed in Science Citation Index - Expanded and Social Sciences Citation Index, and per capita performance. More than 1200 universities are actually ranked by ARWU every year and the best 500 universities are published.