En plus des cookies strictement nécessaires au fonctionnement du site, le groupe AEF info et ses partenaires utilisent des cookies ou des technologies similaires nécessitant votre consentement.
Avant de continuer votre navigation sur ce site, nous vous proposons de choisir les fonctionnalités dont vous souhaitez bénéficier ou non :
Quelles sont les différentes métriques possibles pour évaluer la production scientifique ? Les développements technologiques autour du "big data" peuvent-ils changer la donne et faire reconnaître des approches alternatives aux mesures comme le facteur d'impact ? Interrogé par AEF mi-avril 2015, Thierry Fournier, pilote de la commission documentation et recherche de l’ADBU et en charge de l’organisation d’une journée d’information sur ce thème (lire sur AEF), en évoque l’éventualité. En cause, les sources de citation sur le web qui se multiplient, avec les blogs ou les réseaux sociaux, mais aussi l’intérêt de mesurer plus finement les usages des productions scientifiques, qui se fait de plus en plus sentir. AEF fait le point sur les pratiques en place, et les évolutions attendues.
Les indicateurs servant à mesurer la production scientifique ne sont pas sans défauts. Il en va ainsi notamment du h-index (1), « dont on sait qu'il engendre tout un tas d'effets pervers », affirme la sociologue Béatrice Milard, maître de conférences à l'université Toulouse-II Le Mirail. Elle intervient lors d'une journée d'étude du Resup (Réseau d'étude sur l'enseignement supérieur) à Paris, le 18 septembre 2013, sur le thème : « L'excellence partout ? La construction de la géographie de la science contemporaine ». Au cours de cette journée, plusieurs géographes proposent de nouvelles pistes méthodologiques pour entreprendre une « dé-mesure de la science », selon l'expression de Béatrice Milard, autrement dit « ne pas s'arrêter aux seuls comptages pour évaluer l'activité scientifique, mais s'attacher à comprendre cette activité dans toute son ampleur ».
Le regard des pairs « est de plus en plus omniprésent » chez les universitaires, avec la « montée en puissance de l'impératif d'évaluation », notamment pour le financement sur projets. Le problème peut résider dans « des effets de conformisme », avec des projets de recherche écartés en raison de leur trop grande originalité. C'est ce que soulignent Julien Barrier et Emmanuelle Picard, respectivement maître de conférences en sociologie et maître de conférences d'histoire contemporaine à l'ENS de Lyon, lors de la séance du 26 février 2013 du séminaire sur « les transformations de l'enseignement supérieur et de la recherche en France depuis les années 1960 », qu'organise l'ENS de Lyon de février à avril 2013 (1).