Canalblog
Suivre ce blog Administration + Créer mon blog
Formation Continue du Supérieur
26 avril 2015

Citation des brevets : focus sur la défense et la sécurité dans le monde

AccueilCe projet, co-financé par le Conseil supérieur de la formation et de la recherche stratégique (CSFRS) et l’OST, et mené en collaboration avec des chercheurs de l’université Paris XI, vise à concevoir et tester des indicateurs permettant de mesurer la "valeur" ou la "qualité" - en particulier technologique et économique - des brevets. Voir l'article...

26 avril 2015

Indicateurs pour l'analyse stratégique

AccueilL’OST produit chaque année, pour différentes institutions de recherche, un rapport d'indicateurs bibliométriques. Cette prestation permet aux institutions d'analyser leur production scientifique et leur positionnement stratégique dans la production scientifique française, européenne et mondiale.

La méthode utilisée :
L’institution repère ses articles dans la base de données de l’OST, développée à partir de la base de référence des publications internationales Web of Science® de Thomson Reuters.
A l’issue de cette phase de repérage, l’OST transmet à l’institution, pour validation, les statistiques globales sur les articles repérés, puis calcule les indicateurs.
L'OST fournit à l’institution un rapport contenant des tableaux d’indicateurs annuels brièvement commentés, une note méthodologique, les nomenclatures utilisées et des tableaux d’indicateurs de cadrage.

Cette méthode a été mise au point dans le cadre de l’étude intitulée : « Indicateurs bibliométriques des institutions publiques de recherche françaises en 2000 » (PDF). Voir l'article...

26 avril 2015

Indicateurs pour le suivi des initiatives d'excellence des programmes investissements d'avenir

AccueilEn 2011 et 2012, dans le cadre de l’action IDEX des Programmes d’investissement d’Avenir (PIA), l’OST a été chargé par le Commissariat général à l’Investissement (CGI) d’accompagner les porteurs de projets qui le souhaitaient, en leur fournissant des éléments quantitatifs pour les aider à mettre en évidence les principales caractéristiques de leur projet scientifique.
Le travail d’identification des publications et des brevets de l’IDEX a été réalisé sous la responsabilité des porteurs de projets. Voir l'article...

26 avril 2015

CERES : caractérisation des établissements français de recherche et d'enseignement supérieur

AccueilAprès une étude de faisabilité conduite en 2008 sur plusieurs établissements d’une trentaine de pays, dont cinq en France, la Commission européenne vient de lancer la deuxième phase du projet U-Multirank. A contrario des classements mondiaux présentés sous forme de palmarès, U-Multirank est un classement ouvert, multicritère et interactif des établissements d’enseignement supérieur, permettant de respecter et de promouvoir la diversité des établissements du monde.
Le projet U-Multirank est porté par un consortium dont les pilotes sont le CHE (Centre for Higher Education, Allemagne) et le CHEPS (Center for Higher Education Policy Studies), et auquel l’OST est associé.
U-Multirank s’appuie sur les acteurs nationaux notamment l’OST pour la France, en engageant la construction d’un exercice national de Caractérisation  des Etablissements de Recherche et d’Enseignement Supérieur, CERES,  construit dans la même logique que U-Multirank.   
L’OST est mandaté par la Conférence des Présidents d’Université (CPU) et le Ministère de l’enseignement Supérieur et de la Recherche (MESR-DGESIP) pour réaliser un pilote de CERES en  s’appuyant sur l’expérience du CHE bâtie depuis une quinzaine d’années sur la mise en œuvre et la réalisation du CHE Ranking.

CERES, un outil pour l’enseignement supérieur français

Au plan national, CERES vise à informer différents publics, qu’il s’agisse des (futurs) étudiants, des enseignants et des chercheurs, des responsables et des présidents d’établissement, mais aussi  des décideurs politiques.
L’outil, interactif et personnalisé, permettra à chacun d'obtenir - par domaine disciplinaire - des informations sur les établissements en fonction de ses propres critères.
Pour la version pilote du projet, le choix des domaines disciplinaires a été validé par le Comité de pilotage.
La préparation et le choix des modes de diffusion des informations auprès des étudiants et du grand public seront discutés en étroite collaboration avec la CPU et les autres conférences (CGE, CDEFI), ainsi qu’avec les associations représentant les étudiants qui en sont les destinataires.
CERES se fonde non seulement sur des indicateurs factuels (nombre d'étudiants, réussite, insertion, publications...) mais aussi sur la perception des étudiants par rapport à leur formation et leur cadre d’études, par le biais d’enquêtes de satisfaction auprès des étudiants. Voir l'article...

26 avril 2015

L'OST intègre le HCERES

Accueil"Le Haut Conseil comporte également un observatoire des sciences et techniques chargé de conduire des études et analyses stratégiques, dirigé par un directeur et doté d'un conseil d'orientation scientifique."
Article n°9 du décret n° 2014-1365 du 14/11/2014 relatif à l'organisation et au fonctionnement du Haut Conseil de l'évaluation de la recherche et de l'enseignement supérieur.
Créé par la loi du 22 juillet 2013 relative à l'enseignement supérieur et à la recherche, le Haut conseil de l'évaluation de la recherche et de l'enseignement supérieur (HCERES) a été mis en place le 14 novembre 2014 avec la publication du décret n° 2014-1365.
En son sein, l'Observatoire des sciences et techniques (OST) est chargé de conduire des études et analyses stratégiques et, à cette fin, les compétences et expertises du groupement d'intérêt public OST, créé en 1990, lui sont transférées.

Mission de l'Observatoire au sein du HCERES

L'OST a pour mission de concevoir des analyses pour l'élaboration de stratégie relatives à l'enseignement supérieur, la recherche et l'innovation (ESRI).
Ainsi, l'Observatoire pourra notamment :

  • mettre à disposition son expertise de la conception d'indicateurs pour les analyses
  • accompagner les acteurs de l'ESRI dans l'utilisation des indicateurs
  • participer à la recherche en "Science de la Science"

L’OST s’appuie sur sa connaissance des activités de l'enseignement supérieur, de la recherche et de l'innovation et sur sa capacité à mobiliser les données qui les décrivent : données de financement et ressources humaines, données sur l'enseignement supérieur et la recherche, données sur les entreprises, données sur les publications scientifiques, donnée sur les projets européens, données sur les brevets, etc.
L'équipe de l’OST (chargés d'études, chercheurs, analystes, informaticiens, statisticiens...) a développé des compétences distinctives en matière d'ingénierie de données et d'indicateurs, et acquis des compétences méthodologiques reconnues.
L'équipe de l’OST (chargés d'études, chercheurs, analystes, informaticiens, statisticiens...) a développé des compétences distinctives en matière d'ingénierie de données et d'indicateurs, et acquis des compétences méthodologiques reconnues. Voir l'article...

26 avril 2015

The Cost of Financing Education: Can Student Debt Hinder Entrepreneurship?

By Karthik Krishnan and Pinshuo Wang. Student loans can impose a significant cost of undertaking risky endeavors such as starting up businesses. Using data from the Survey of Consumer Finances (SCF), we find evidence supportive of the recent policy decisions to reduce the burden of student debt to promote entrepreneurship. First, we find that a greater amount of student debt is negatively related to the propensity to start a firm. Second, conditional on starting up a firm, individuals having more student debt have less profitable firms. Further, these effects are stronger among younger cohorts and for individuals in high-technology industries. Using the Higher Education Amendments of 1992, which made federal Stafford loans more widely available, as an exogenous shock to student debt, we find that student debt negatively impact entrepreneurship and entrepreneurial success. The negative relation between student debt and entrepreneurship is stronger when the individual has a dependent spouse. Further, we find that student debt reduces the tendency of high-reward and high risk-preferring individuals to take on entrepreneurial ventures. Our evidence indicates that student debt may inhibit entrepreneurship by reducing the expected payoff of these ventures to individuals by exacerbating the effect of negative outcomes on the individual. Given the high value of student loans outstanding (more than $1 trillion) and its potentially significant impact on entrepreneurship, we believe that our results shine some light on an important phenomenon. Northeastern U. D’Amore-McKim School of Business Research Paper No. 2586378. Download This Paper. More...

26 avril 2015

Quality and reputation key to why international students choose Australia

Universities Australia: Discover Learn Lead.Australian universities' commitment to quality has again been internationally recognised with the release of the 2014 International Student Survey report today.
The survey shows that quality and reputational factors are the top three reasons why international students choose Australia.
The top reasons cited were:

  • Reputation of chosen qualification (reported by 95 per cent of respondents);
  • Reputation of chosen institution (94 per cent); and
  • Reputation of Australia's education system (93 per cent). More...
26 avril 2015

Le manifeste de Leiden pour la mesure de la recherche

AccueilPar Diana Hicks, Paul Wouters, Ludo Waltman, Sarah de Rijcke & Ismael Rafols. Version française par Ghislaine Filliatreau, directrice de l’Observatoire des Sciences et Techniques du HCERES. (télécharger en PDF).
LES DIX PRINCIPES
1. La description quantitative doit servir d’appui à une évaluation qualitative par des experts.
2. Mesurer la performance au regard des missions de recherche de l’institution, du groupe ou du chercheur.
3. Protéger l’excellence dans les domaines de recherche importants à l’échelle locale.
4. Maintenir une collecte de données et des processus d’analyse ouverts, transparents et simples.
5. Permettre aux chercheurs évalués de vérifier les données et analyses.
6. Tenir compte des différences entre disciplines en matière de publication et de citation.
7. Baser les évaluations des chercheurs sur un jugement qualitatif de leurs travaux.
8. Éviter les simplifications abusives et les fausses précisions.
9. Reconnaître les impacts systémiques des évaluations et des indicateurs.
10. Réévaluer régulièrement et faire évoluer les indicateurs.
Les chiffres sont de plus en plus utilisés pour piloter la recherche. Les évaluations de la recherche qui étaient auparavant faites « à façon » par des pairs sont aujourd’hui routinisées et s’appuient sur des mesures. Le problème est qu’à présent ces évaluations ne sont plus fondées sur des réflexions mais sur des indicateurs. Et les indicateurs utilisés se sont multipliés : des indicateurs généralement bien intentionnés, pas toujours bien renseignés et souvent mal appliqués. Nous risquons de nuire au système en utilisant les outils mêmes qui ont été conçus pour l’améliorer, car les évaluations sont de plus en plus souvent réalisées par des structures qui n’en ont aucune connaissance ou ne bénéficient d’aucun conseil en matière de bonnes pratiques et d’interprétation.
Avant 2000, on s’appuyait sur le Science Citation Index via un CD-ROM de l’Institute for Scientific Information (ISI), utilisé par les experts pour des analyses spécialisées. En 2002, Thomson Reuters a lancé une plateforme en ligne, qui rend la base de données Web of Science accessible au plus grand nombre. Depuis lors, deux autres sources de citation sont apparues : Scopus de Elsevier (lancé en 2004), et Google Scholar (version bêta lancée en 2004). Des outils en ligne permettant de comparer facilement la productivité et l’impact de la recherche institutionnelle ont été introduits, comme InCites (utilisant le Web of Science) et SciVal (utilisant Scopus), ainsi qu’un logiciel permettant d’analyser les profils de citation des auteurs à l’aide de Google Scholar (Publish or Perish, lancé en 2007).
En 2005, Jorge Hirsch, un physicien de l’université de San Diego en Californie a proposé le « h-index » popularisant ainsi le comptage de citations pour les chercheurs. De même, l’intérêt pour le facteur d’impact des revues scientifiques n’a cessé d’augmenter depuis 1995 (voir encart « L’obsession pour le facteur d’impact »).
Plus récemment, les mesures liées à l’usage social et aux commentaires en ligne ont pris de l’ampleur : F1000Prime a été créé en 2002, Mendeley en 2008 et Altmetric.com (soutenu par Macmillan Science and Education, qui détient le groupe Nature Publishing) en 2011.
En tant que scientomètres, spécialistes des sciences sociales et administrateurs de la recherche, nous avons observé avec une inquiétude grandissante le mauvais usage des indicateurs dans l’évaluation de la performance scientifique. Les exemples qui suivent ne sont qu’une fraction de ce que l’on peut observer. Les universités du monde entier sont devenues obsédées par leur position dans les classements académiques internationaux (comme le classement de Shanghai et la liste du Times Higher Education), même si celles-ci sont basées, selon nous, sur des données inexactes et des indicateurs arbitraires. Certains recruteurs exigent que les candidats fournissent leur h-index.
Des universités basent leurs décisions de promotion sur des valeurs-seuils de h-index, et sur le nombre d’articles publiés dans des revues scientifiques « à fort impact ». Les CV des chercheurs sont devenus l’occasion de se vanter de ces scores, particulièrement en biomédecine. Partout, les directeurs de thèse demandent à leurs doctorants de publier dans des revues « à fort impact » et d'obtenir des financements externes avant même d’y être prêts.
Dans les pays scandinaves et en Chine, certaines universités allouent des subventions de recherche ou des primes sur la base d’un indicateur: par exemple, en utilisant le score d’impact individuel pour affecter des « financements à la performance », ou en accordant une prime aux chercheurs qui publient dans une revue ayant un facteur d’impact supérieur à 15.
Dans de nombreux cas, les chercheurs et les évaluateurs continuent à faire preuve de discernement. Pour autant, l’abus d’indicateurs concernant la recherche est devenu trop répandu pour être ignoré.
Nous présentons donc le Manifeste de Leiden, du nom de la conférence au cours de laquelle il a vu le jour (voir http://sti2014.cwts.nl). Ses dix principes ne sont pas nouveaux pour les scientomètres, même si aucun d’entre nous n’avait jusqu’ici pu les énoncer aussi clairement, faute de langage commun. D’éminents chercheurs dans ce domaine, comme Eugene Garfield (fondateur de l’ISI), ont déjà énoncé certains de ces principes. Mais ces experts ne sont pas là quand les évaluateurs rédigent leur rapport d’évaluation à l’attention d’administrateurs qui, eux-mêmes, ne sont pas des experts de la méthodologie. Et les chercheurs qui cherchent des textes de référence pour contester une évaluation ne trouvent que des informations éparses dans ce qui est, pour eux, des revues aux contenus complexes auxquelles ils n’ont pas forcément accès.
Aussi nous proposons ici un condensé des bonnes pratiques en matière d’évaluation de la recherche basée sur les indicateurs, afin que les chercheurs puissent demander des explications aux évaluateurs, et que les évaluateurs puissent interroger l’exactitude de leurs indicateurs. Voir l'article...

26 avril 2015

Décision n° 2015-465 QPC sur la Composition de la formation restreinte du conseil académique - CPU

Revenir à la page d'accueilDécision n° 2015-465 QPC (question prioritaire de constitutionnalité) du 24 avril 2015 - Conférence des présidents d'université [Composition de la formation restreinte du conseil académique]. Audience vidéo. Dossier documentaire.
Le Conseil constitutionnel a été saisi le 13 février 2015 par le Conseil d'État d'une question prioritaire de constitutionnalité posée par la Conférence des présidents d'université relative à la conformité aux droits et libertés que la Constitution garantit de la dernière phrase du paragraphe IV de l'article L. 712-6-1 du code de l'éducation.
Cette disposition est relative à la composition du conseil académique des universités, dans sa formation restreinte compétente pour les questions individuelles relatives aux enseignants-chercheurs. Elle prévoit que lorsque sont examinées des questions individuelles concernant des enseignants-chercheurs autres que les professeurs des universités, la formation restreinte du conseil académique « est composé à parité d'hommes et de femmes et à parité de représentants des professeurs des universités et des autres enseignants-chercheurs, dans des conditions précisées par décret ».
La Conférence des présidents d'université reprochait à la loi, d'une part, d'avoir méconnu l'étendue de sa compétence en renvoyant à un décret la fixation des conditions d'application de cette double parité et, d'autre part, d'avoir porté atteinte au principe d'égalité. Le Conseil constitutionnel était également saisi d'interventions qui dénonçaient, pour leur part, l'absence d'exigence identique et symétrique de parité d'hommes et de femmes dans la formation restreinte lorsque sont examinées des questions individuelles relatives aux professeurs des universités. Ces interventions s'appuyaient sur le principe d'égalité et sur l'objectif d'égal accès des femmes et des hommes figurant à l'article 1er de la Constitution.
Après avoir écarté les moyens tirés d'une incompétence négative du législateur, le Conseil constitutionnel n'a pas accueilli les moyens fondés sur le principe d'égalité. Il a en particulier jugé que ce principe n'imposait pas au législateur d'étendre la règle de la parité à la formation restreinte du conseil académique examinant les questions individuelles relatives aux professeurs des universités, au motif que le législateur conserve la capacité de traiter différemment des agents appartenant à des corps distincts et relevant ainsi de situations différentes.
Le Conseil constitutionnel a, enfin, jugé que l'objectif de parité prévu par le second alinéa de l'article 1er de la Constitution ne constitue pas un droit ou une liberté que la Constitution garantit et n'est donc pas invocable à l'appui d'une QPC.
Les dispositions de la dernière phrase du paragraphe IV de l'article L. 712-6-1 du code de l'éducation ont donc été jugées conformes à la Constitution. Voir l'article...

26 avril 2015

Employment of disabled people

http://ec.europa.eu/eurostat/statistics-explained/skins/statexpflat/media/StatExplainedTitle-02.pngEmployment of disabled people — Statistical analysis of the 2011 Labour Force Survey ad hoc module – 2015 edition
The present report describes the national implementations of the ad-hoc module and provides users with relevant information that helps in assessing the quality of the results. In addition, a descriptive, comparative and multivariate analysis of the variables composing the ad-hoc module is provided. Table of contents. Download Publication (EN).

Newsletter
50 abonnés
Visiteurs
Depuis la création 2 794 176
Formation Continue du Supérieur
Archives