Jacob Appelbaum - L'autorité scientifique face à l'open access

L’autorité scientifique face à l’open access

publié en

,

Dans le domaine scientifique, l’autorité est en grande partie détenue par les revues. Une publication dans Nature ou Science peut faire décoller la carrière d’un chercheur. Mais avec le temps, les mastodontes de l’édition sont devenus trop gourmands et poussent leurs «sujets» à la rébellion, notamment via la publication en open access.

TEXTE | Martine Brocard

Trop autoritaires, les éditeurs scientifiques? Ou d’excellents businessmen? Il faut reconnaître que leur modèle économique semble très rémunérateur. Des scientifiques financés par les universités (et donc par le contribuable) leur fournissent gratuitement leurs recherches dans l’espoir d’être publiés. D’autres scientifiques, financés par d’autres universités (mais possiblement par les mêmes contribuables), vérifient gratuitement ces travaux. Ainsi assurés de la qualité de l’article, ces éditeurs vont l’imprimer dans leur revue, pour laquelle les universités susmentionnées (et donc toujours les mêmes contribuables) devront contracter un abonnement payant, pour consulter l’article et se tenir au courant des dernières avancées de leur discipline.

Hallucinant? Presque. Surtout lorsque l’on sait que les six plus gros éditeurs scien­­tifiques1Environ 2,5 millions d’articles paraissent chaque année, dans plus de 25’000 journaux scientifiques fondés sur la sélection par les pairs. Les États-Unis demeurent la première puissance scientifique, mais ils sont désormais talonnés par la Chine. Les autres acteurs qui montent en puissance sont l’Inde, la Corée du Sud, le Brésil, ou encore l’Iran. génèrent quelque 60% des profits de la branche et que les trois plus gros d’entre eux (le néerlandais Elsevier, l’allemand Springer Nature et l’américain Wiley-Blackwell) réalisent des bénéfices avec des marges de plus de 30% sur le chiffre d’affaires… soit plus que le secteur pétrolier, comme l’ont rappelé plusieurs intervenants lors d’une journée consacrée à l’open science et organisée par la HES-SO en mars 2019.

Cette situation est possible tout simplement parce que ces éditeurs détiennent l’autorité scientifique. Parce qu’un article publié dans Nature ou Science est considéré comme le graal du chercheur et peut faire toute la différence dans une carrière. Voilà pourquoi les scientifiques et les institutions qui les financent sont prêts à accepter ces conditions.

Vent de révolte face aux éditeurs

Prêts à tout, ou presque. Depuis quelques années, les éditeurs sont devenus de plus en plus gourmands, à la limite de la dictature, et suscitent des envies de changement chez leurs «sujets». «Les éditeurs fixent les tarifs de manière unilatérale, ce qui représente des sommes exorbitantes, regrette Christine Pirinoli, Vice-rectrice Recherche et Innovation de la HES-SO. Il y a un business extrêmement fructueux qui se fait sur le dos des chercheurs et des institutions publiques.» Les chercheurs sont frustrés de perdre tout contrôle sur leur travail, notamment le droit de le transmettre librement à des collègues. De leur côté, les universités n’ont simplement plus les moyens de payer les coûts des abonnements annuels, souvent compris dans des «bouquets» imposés de revues qui les forcent à payer pour des magazines qui leur sont inutiles.

Depuis une vingtaine d’années, des chercheurs et des institutions gouvernementales tentent de renverser ce diktat. La solution qu’ils ont trouvée a pour nom «open access», à savoir des articles disponibles pour tous, gratuitement, sur internet. «La question n’est pas de savoir si, mais quand cela deviendra une réalité», assure Tobias Philipp, coordinateur de la stratégie open access au Fonds national suisse de la recherche scientifique (FNS). L’institution a d’ailleurs décidé que d’ici à 2020, cela devra être le cas de 100% des publications qu’elle finance. L’Union européenne a prévu de faire de même, tandis que swissuniversities, qui regroupe les hautes écoles universitaires, spécialisées et pédagogiques de Suisse, s’est fixé un délai à 2024.

Les nouveaux acteurs de l’open access

Reste à savoir comment. «L’open access est un principe, pas un business model, pointe Tobias Philipp. S’il est gratuit pour le lecteur, cela ne signifie pas qu’il ne coûte rien.» Plusieurs options sont possibles. Le FNS privilégie le modèle «Gold open access» et accepte le modèle «Green open access». Dans le premier cas, l’institution de financement, l’auteur lui-même ou encore son employeur prennent en charge le coût de publication de l’article qui est disponible immédiatement en libre accès. Dans le second, l’article est publié dans une revue traditionnelle, mais peut être publié sur une plateforme en libre accès après un embargo, généralement de six mois pour les articles et d’un an pour les livres.

Des acteurs misant exclusivement sur l’open access ont d’ailleurs fait leur apparition. Parmi les plus anciens figure l’américain PLOS, fondé en l’an 2000. D’autres ont vu le jour en Suisse, comme Frontiers, lancé en 2007 par deux neuroscientifiques de l’EPFL, ou MDPI, créé à Bâle en 1996. «Ce ne sont toutefois pas des acteurs totalement désintéressés, nuance Sylvie Vullioud, ancienne formatrice à la publication scientifique, fine observatrice de l’open access, et intervenante à la journée open science de la HES-SO. Malgré les standards de qualité que ces éditeurs revendiquent, le fait est que plus ils publient, plus ils génèrent de profit.»

Il ne faut en effet pas oublier que malgré les problèmes inhérents à leurs méthodes et à leurs prix, les éditeurs traditionnels réalisent un important travail pour la communauté scientifique. «Grâce au processus d’évaluation par les pairs, les revues jouent un rôle de garde-fou, reconnaît Christine Pirinoli. Un chercheur qui déciderait de publier ses articles uniquement sur son site décrédibiliserait son CV, car l’acceptation par les pairs représente un gage de qualité puisqu’elle permet à la fois de valider et de diffuser ses résultats.»

L'autorité scientifique face à l'open access - Jacob Appelbaum // www.revuehemispheres.com
Jacob Appelbaum (né en 1983) est un militant du logiciel libre. Il était impliqué dans les projets WikiLeaks et Tor, qu’il a quittés suite à des accusations de maltraitances sexuelles.
L'autorité scientifique face à l'open access - John Perry Barlow // www.revuehemispheres.com
John Perry Barlow (1947- 2018) était un poète, éleveur et militant libertarien.Il souhaitait mettre fin aux tentatives de régulation d’internet par les états.
L'autorité scientifique face à l'open access - Richard M. Stallman // www.revuehemispheres.com
Richard M. Stallman (né en 1953) est un programmateur qui a lancé le mouvement du logiciel libre en 1983.
L'autorité scientifique face à l'open access - Jimmy Wales // www.revuehemispheres.com
Jimmy Wales (né en 1966), est un homme d’affaires américain, cofondateur de l’encyclopédie Wikipédia.
L'autorité scientifique face à l'open access - Lawrence Lessig // www.revuehemispheres.com
Lawrence Lessig (né en 1961) est juriste et président du conseil d’administration de l’organisation Creative Commons.
L'autorité scientifique face à l'open access - Aaron Swartz // www.revuehemispheres.com
Aaron Swartz (1986-2013) était un infor­maticien et militant politique ayant participé au développement de plusieurs techniques, notamment le format flux RSS ou les licences Creative Commons.

Revoir les critères d’évaluation des chercheurs et des chercheuses

Si la majorité des chercheurs souhaite une diffusion de leurs travaux aussi large que possible, le passage au libre accès est loin d’être évident. «Nous demandons à de nombreux chercheurs de repenser leur manière de publier dans un système qui selon leur perspective fonctionne bien», relève Tobias Philipp. Un changement de paradigme qui ne va pas de soi. «Le fait que certaines revues sont plus prestigieuses que d’autres constitue un élément-clé pour les chercheurs», confirme Christine Pirinoli.

Le meilleur, voire l’unique, moyen de réussir le passage à l’open access semble donc de revoir radicalement la façon d’évaluer les travaux des chercheurs – notamment lorsqu’ils postulent pour un poste ou une bourse académique – afin qu’ils n’aient plus à se préoccuper du prestige de la revue qui les publie. C’est justement la raison d’être de la Déclaration DORA (San Francisco Declaration On Research Assessment) publiée en 2012. En clair, elle demande d’abandonner les critères quantitatifs ou bibliométriques (lire encadré ci-après) pour des critères qualitatifs, basés sur le contenu des travaux des chercheurs, plutôt que sur leur contenant. évidente en théorie, cette transition s’avère plus compliquée en pratique. «Les critères bibliométriques donnent l’impression de réduire la complexité du travail des experts et de leur permettre d’examiner un grand nombre de recherches en peu de temps, résume Tobias Philipp. C’est plus facile et plus rapide que de lire les travaux du chercheur.»

Moins de textes ou plus de transparence

Des pistes existent cependant. «On pourrait demander au chercheur de fournir trois de ses articles les plus significatifs, que les membres du comité de sélection liraient pour se forger une opinion, suggère Christine Pirinoli. Il serait aussi possible de se focaliser sur des facteurs tels que la contribution du chercheur à l’encouragement de la relève, ou sur des éléments tels qu’une lettre de recommandation d’une entreprise pour qui le travail du chercheur s’est avéré utile.»

De son côté, Sylvie Vullioud mise plutôt sur le deuxième volet de l’open science, à savoir l’open data, c’est-à-dire le libre accès aux données scientifiques: «Un chercheur peut aussi prouver la qualité de sa recherche et la robustesse de ses résultats en mettant ses données à disposition, pour qu’elles puissent être vérifiées ou utilisées par la communauté. Quand on sait qu’une grande partie de la recherche n’est tout simplement pas reproductible, une telle transparence constituerait un signal fort.» Entre la révision de l’évaluation des scientifiques et le libre accès à leurs données et à leurs articles, les contours d’une nouvelle forme d’autorité scientifique semblent encore bien abstraits. Mais le virage vers une refonte en profondeur semble, lui, très concret.


«Le but est que les données scientifiques soient facilement consultables online»

L'autorité scientifique face à l'open access - René Schneider // www.revuehemispheres.com
Image: Thierry Parel

Avec le libre accès et la remise en question des revues tradi­tionnelles se pose la question de la gestion et de la conservation des données scientifiques. René Schneider, professeur en sciences de l’information à la Haute école de gestion de Genève – HEG – HES-SO, s’est penché sur la problématique avec le projet Icopad (Identité de Confiance pour données d’Art et de Design).

Qu’est-ce que le projet Icopad et pourquoi est-il important?
Nous avons voulu réfléchir à des alternatives aux solutions d’accès et de conservation des données scientifiques, afin d’éviter que des liens menant à des recherches ne puissent soudain être périmés, ce qui arrive fréquemment sur internet. Actuellement, lorsqu’un chercheur termine une recherche, celle-ci reçoit un identifiant pérenne appelé «DOI» pour qu’elle puisse être retrouvée ultérieurement. Mais ces DOI sont insuffisants.

Pourquoi?
Le problème est qu’ils sont encore payants en Suisse et qu’il en faut plusieurs pour un seul travail. En effet, le modèle DOI ne tient pas compte de la granularité des données. Par exemple, il ne suffit pas d’identifier une image que l’on va numériser, il faudrait en identifier chaque pixel, si l’on veut parler d’extraits de l’image. En outre, il faudrait également un identifiant pour le chercheur, ainsi qu’un autre pour son institution.

Quelle est l’importance de ces identifiants pérennes?
Avant, l’autorité scientifique était basée sur les publications scientifiques. Si l’on voulait consulter les données relatives à une étude, c’était compliqué et il fallait peut- être se rendre sur le lieu de travail du chercheur. Mais avec les identifiants pérennes, cela va changer. Le but à terme est que les données scientifiques soient facilement trouvables et consultables online, partout et tout le temps.

Qu’est-ce que cela va impliquer pour le travail des chercheurs?
Des changements majeurs. Avant de commencer un projet de recherche, un chercheur va devoir réaliser un data management plan dans lequel il indiquera où et comment il entend noter et stocker ses données. Ensuite, il aura l’obligation de les transmettre et de les conserver sur le long terme. L’idée est que les autres chercheurs puissent facilement consulter voire vérifier ces données, même quelques décennies plus tard.

Pourquoi la conservation des données est-elle si importante?
D’une part, en raison de notre tradition d’archivage et de partage du savoir, d’autre part, en raison de l’émergence des data sciences, qui se basent entièrement sur les données.

Concrètement, à quoi pourrait ressembler une telle infrastructure?
Les identifiants pérennes ont besoin d’institutions pérennes – comme des bibliothèques ou des services d’archives –, qui existeront encore dans 100 ans. Il faut également des curateurs qui se chargent d’avoir ces données en dépôt, de tout faire pour qu’elles soient retrouvables et utilisables dans quelques décennies et de créer des espaces dans lesquels les chercheurs puissent travailler. Actuellement, nous sommes prêts, et avons trois institutions intéressées. Une telle infrastructure pourrait devenir une réalité d’ici à une année.


La citation, baromètre de l’autorité scientifique

Dans un domaine comme la science, où chacun essaie de mener des travaux inédits dans sa discipline, comment attribuer de la valeur à un chercheur plutôt qu’à un autre? Depuis le milieu du XIXe siècle, la communauté scientifique a misé sur les citations, en partant du principe qu’un article abondamment cité est un article de qualité.

L’invention du facteur d’impact (Impact Factor ou IF) en 1955 par le linguiste américain Eugene Garfield a grandement contribué à imposer l’idée qu’un article abondamment cité est un article de qualité. Originellement développé pour mieux retrouver la provenance d’une citation scientifique, l’IF – qui calcule le nombre moyen de citations d’un article dans une revue donnée – s’est rapidement mué en une façon de déterminer les meilleures revues dans lesquelles publier, rappelle la chercheuse Evelyne Broudoux, dans un article consacré à la question. En 2005, un nouvel outil bibliométrique, destiné cette fois à évaluer la productivité et l’impact du chercheur, a fait son apparition. Baptisé «indice h» (ou indice de Hirsch, du nom du physicien américano-argentin l’ayant mis au point), celui-ci met en rapport le nombre d’articles publiés par un scientifique, ainsi que leur nombre de citations.

L’effet pervers des indices bibliométriques

Ces indices bibliométriques comptent toutefois des effets pervers. De nombreuses voix se sont élevées pour dénoncer leur utilisation dans l’évaluation des travaux scientifiques. Pour les chercheurs, ces indices ont en effet mené au fameux «publish or perish», une course à la publication à tout prix dans le but d’être cité. En outre, ils incitent à utiliser la citation pour des motifs autres que purement scientifiques. On peut par exemple citer de manière superflue l’article d’un collègue, renoncer à citer le travail pertinent d’un concurrent, ou encore s’auto- citer outrageusement, dans le but de manipuler son indice h ou celui des autres.

Ces dernières années, avec l’apparition des réseaux sociaux, un nouveau type de bibliométrie a encore vu le jour. Il s’agit des «altmetrics» qui mesurent la circulation d’un travail scientifique sur internet, notamment en calculant le nombre de citations sur les blogs, les réseaux sociaux, ou encore le nombre de téléchargements. Ils sont cependant eux aussi sujets à la manipulation, préviennent les critiques.