En plus des cookies strictement nécessaires au fonctionnement du site, le groupe AEF info et ses partenaires utilisent des cookies ou des technologies similaires nécessitant votre consentement.
Avant de continuer votre navigation sur ce site, nous vous proposons de choisir les fonctionnalités dont vous souhaitez bénéficier ou non :
L’OST (Observatoire des sciences et des techniques), intégré au HCERES, publie, vendredi 24 avril 2015, une traduction française du "manifeste de Leiden pour la mesure de la recherche", qui propose en "dix principes" "un condensé des bonnes pratiques en matière d’évaluation de la recherche basée sur les indicateurs". La version originale, en anglais, a été publiée le 23 avril dans le magazine scientifique Nature. L’idée de ce "manifeste" a émergé lors de la conférence sur les indicateurs de la science et de la technologie, qui s’est tenue à Leiden (Pays-Bas), du 3 au 5 septembre 2014. Ses promoteurs (1) partent de la constatation selon laquelle "l’abus d’indicateurs concernant la recherche est devenu trop répandu pour être ignoré". Ils rappellent ainsi, en tout premier principe, que "la description quantitative doit servir d’appui à une évaluation qualitative par des experts".
L’université de Rockefeller arrive en tête du classement 2014 de Leiden sur l'impact des publications scientifiques, suivie du MIT, de l’université Harvard, de l’université de Californie Berkeley et de l’université de Stanford – toutes cinq localisées aux États-Unis. Première institution française, l’École normale supérieure se positionne à la 57e place. Réalisé par l’université de Leiden (Pays-Bas), ce classement se fonde sur l’analyse de la base de données des publications scientifiques du Web of science de Thomson Reuters pour la période 2009-2012 et plus précisément, pour sa partie "impact", sur l’analyse des citations de ces publications. Dans une autre section, le classement analyse la part des collaborations dans les publications des institutions : l’université de Montpellier-I s’y positionne au 4e rang mondial, derrière trois universités taïwanaises.
Les indicateurs servant à mesurer la production scientifique ne sont pas sans défauts. Il en va ainsi notamment du h-index (1), « dont on sait qu'il engendre tout un tas d'effets pervers », affirme la sociologue Béatrice Milard, maître de conférences à l'université Toulouse-II Le Mirail. Elle intervient lors d'une journée d'étude du Resup (Réseau d'étude sur l'enseignement supérieur) à Paris, le 18 septembre 2013, sur le thème : « L'excellence partout ? La construction de la géographie de la science contemporaine ». Au cours de cette journée, plusieurs géographes proposent de nouvelles pistes méthodologiques pour entreprendre une « dé-mesure de la science », selon l'expression de Béatrice Milard, autrement dit « ne pas s'arrêter aux seuls comptages pour évaluer l'activité scientifique, mais s'attacher à comprendre cette activité dans toute son ampleur ».