Nuvola apps important.png Attention, suite à une faille de sécurité, les liens vers les serveurs d'exploration sont désactivés.

AMETIST 2 Guédon

De Wicri SIC

Accès libre, archives ouvertes et États-nations


 
 

Ametist-logo-lettres-small.jpg
Ametist 2 Logo oiseau.jpg
Revue Ametist
Numéro 2 (2008)
Numéro spécial archives ouvertes
Accès libre, archives ouvertes et États-nations :
les stratégies du possible
Compléments
version pdf
Jean-Claude Guédon.i
jean.claude.guedon@umontreal.ca
  • i - Université de Montréal.
Mots-clés
accès information, accès libre, archives ouvertes, publication scientifique, état actuel, recommandation
Keywords
information access, open access, open archives, scientific publication, current state, recommendation
Résumé
Pratiquement depuis ses origines en 2002, le mouvement en faveur de l’accès libre s’est défini autour de deux stratégies : la publication dans des revues en accès libre et l’archivage des articles dans des dépôts en accès libre obéissant au protocole OAI-PMH. Depuis, ces deux tendances fonctionnent en parallèle, sans grands recoupements entre elles, si ce n’est une certaine résistance aux revues en accès libre de la part de certaines personnes qui soutiennent l’archivage des articles. Par ailleurs, la question de la relation des dépôts institutionnels avec les dépôts disciplinaires ou thématiques n’a jamais beaucoup progressé, les discussions se limitant souvent à démontrer la supériorité d’un modèle sur l’autre.
Cette fragmentation du mouvement en faveur de l’accès libre ne joue pas en sa faveur. Pour autant, ces formes plus ou moins larvées de division ne sont pas nécessaires et encore moins une fatalité. Le texte qui suit cherche à montrer comment les deux grands courants de l’accès libre peuvent aisément s’articuler l’un à l’autre ; il montre également comment les « archives » ou dépôts thématiques peuvent s’adosser fonctionnellement aux « archives » ou dépôts institutionnels.
La clef d’une architecture harmonieuse de l’accès libre se trouve facilement si l’on prête attention à la question du capital symbolique. Cette variable capitale explique une bonne partie du fonctionnement inadéquat du système actuel de communication scientifique. Elle est largement tributaire d’un dispositif et d’un seul : le « Web of Science » de la compagnie Thomson Scientific qui, grâce à des outils de mesure comme le facteur d’impact, n’est pas loin de monopoliser les instruments de mesure de la valeur scientifique.
L’un des objectifs de l’accès libre, au-delà de son programme immédiat et évident d’offrir l’accès sans entraves à la littérature savante mondiale, est de corriger certains dysfonctionnements flagrants du système actuel de communication scientifique. En créant de nouveaux moyens de mesurer la valeur et l’impact des résultats de recherche, c’est-à-dire en diluant le monopole des instruments de mesure actuellement en place, le mouvement peut aussi trouver le moyen de se rassembler et d’avancer d’autant plus efficacement vers son but premier. En d’autres mots, c’est en travaillant simultanément la question de l’accès et celle de la mesure de l’impact ou valeur des publications scientifiques que le mouvement en faveur du libre accès atteindra son efficacité maximale.

Introduction : l'accès inégal à l'information scientifique, facteur d'inefficacité

L'universalité de la connaissance scientifique diffère fondamentalement de sa mondialisation. Tandis que les résultats des recherches scientifiques sont censés s'appliquer partout dans l'univers, l'accès aux résultats de la recherche est beaucoup plus sélectif. Au-delà des limites qu'imposent les manques de connaissances ou les moyens techniques de la diffusion, du système postal aux liens Internet, se retrouvent en effet partout des individus bien formés, intelligents, cherchant à poursuivre des recherches scientifiques, mais sans possibilités d'obtenir l'accès aux revues pertinentes. Trop chères pour la plupart, elles ne peuvent simplement pas être acquises par les universités des pays pauvres et encore moins par les chercheurs eux-mêmes. Même dans les pays riches, la plupart des bibliothèques doivent faire des choix difficiles, et leurs lecteurs n’ont jamais accès à la totalité des résultats de recherche publiés dans leur domaine de travail.

Cette situation devrait susciter quelque étonnement. D'une part, les résultats de recherche sont donnés par leurs auteurs pour être lus par leurs collègues (et concurrents). Le chercheur, en effet, vise à la circulation maximale de ses écrits parce qu'il recherche visibilité, autorité et prestige. Par ailleurs, la qualité des travaux soumis à la publication est évaluée gracieusement par des collègues. Enfin, si l'on considère l'ensemble du processus de production des résultats de recherche, la publication de ces résultats en fait très évidemment partie : une recherche non publiée demeure simplement un exercice confidentiel et par là-même sort du territoire scientifique. Le moment de la publication, accompagné de l'évaluation par les pairs, complète donc nécessairement les autres phases de la recherche. Or, tout le monde s'accorde pour dire que le coût de la publication des recherches ne représente qu'une petite fraction des coûts de la recherche proprement dite. Les estimations à cet égard convergent autour d'une fraction se situant entre 1 et 2 % du coût total[1]. On peut donc aisément imaginer d'intégrer le financement des publications scientifiques dans les budgets de la recherche. De facto, c'est d'ailleurs ce qui se passe, mais de manière indirecte : les bibliothèques, largement subventionnées par des fonds publics dans la plupart des pays du monde, payent les abonnements aux revues savantes et ainsi financent le coût de l'accès pour les membres de leur communauté.

Les chercheurs sont donc des lecteurs subventionnés. Parce que la subvention fonctionne indirectement, par le truchement des bibliothèques, le chercheur est aussi un consommateur ignare (ou gâté), qui ignore le vrai prix des documents qu'il utilise. Le prix des abonnements ne constitue donc pas un signal efficace puisque les vrais utilisateurs ne le connaissent pas, pire préfèrent souvent ne pas le connaître. Les bibliothèques, cibles involontaires de tous les reproches, jonglent avec leur budget pour tenter de satisfaire au mieux les besoins des chercheurs sans trop engendrer d'animosité de leur part. Et les maisons d'édition répètent à l'envi qu'il n'y aurait pas de problème si seulement les universités acceptaient d'augmenter les budgets d'acquisition...

Les coûts de l'évaluation par les pairs ne représentent qu'une partie mineure du coût des publications. Un auteur comme A. Dryburgh, tout en travaillant dans la perspective de maisons d'édition de revues scientifiques, évalue ceux-ci entre 60 et 300 dollars par article et on peut supposer qu'il n'a rien fait pour tenter de minimiser cette évaluation[2]. Incidemment, les variations dans les coûts de l'évaluation par les pairs s'expliquent par divers facteurs : taux de rejet des articles, tâches comprises dans le processus d'évaluation (par exemple corrections linguistiques), nombre d'articles à traiter, type de logiciel utilisé[3][3], méthodes d'évaluation comptable, etc.

Une fois l'article évalué, restent les questions propres à la publication en soi. Rappelons que viser l'accès libre pour les articles de recherche est cohérent avec la logique intrinsèque de la recherche. Il ne s'agit donc que de placer dans un site adéquat les articles validés par une évaluation par les pairs. Par site adéquat, dans la situation actuelle des choses, on veut parler d'un site institutionnel, garantie d'une certaine stabilité, souscrivant aux protocoles « Open Archive Initiative – Protocol for Metadata Harvesting (OAI-PMH)[4]. De cette façon, les articles engrangés dans une archive ouverte sont faciles à retrouver, par exemple par un moteur de recherche comme OAISTER[5], ou par Google Scholar[6]. Le coût de production d'un article numérisé peut être fort modeste, ainsi que le démontre l'existence de nombreux « working papers » produits dans les unités de recherche à partir d'un document propre converti en pdf et qui remplissent néanmoins leur rôle de vecteur fiable d'information sans aucun problème. Si l'on se limite aux question de transmission, d'accès et d'optimisation de l'intelligence distribuée des chercheurs, on peut imaginer un coût de production numérique d'un article extrêmement bas, de l'ordre de 150 dollars peut-être[7].

Enfonçons le clou un peu plus avant. Une fois accepté le cadre interprétatif général proposé ci-dessus, il devient en effet difficile de justifier pourquoi un scientifique donné ne dispose pas d'un accès réel et concret à un article particulier. En d'autres mots, en inscrivant la distribution des articles scientifiques dans un schéma commercial, et non dans un contexte de règles issues de la logique même du processus de production des connaissances scientifiques, on engendre rapidement des formes diverses d'inégalité pour ce qui est de l'accès à l'information scientifique. Bref, à qualité intellectuelle comparable, plus l'institution d'appartenance est riche, plus le chercheur peut travailler efficacement parce que, tout simplement, il dispose d'un meilleur accès à la littérature scientifique[8].

Plus généralement, sans circulation libre de l'information scientifique validée, le système de la recherche scientifique ne fonctionne pas à son niveau optimal. La raison est simple : d'une part, la puissance d'un réseau de scientifiques dépend du nombre de participants, d’autre part cette puissance tend à croître très vite car elle dépend de la combinatoire des interactions possibles. Quand Eric Raymond énonce ce qu'il appelle la « Loi de Linus » [Torvalds[9]] – avec suffisamment d'yeux, tous les « bogues » sont superficiels[10] – il ne fait que traduire de manière vivante une remarque fondamentale permettant de comprendre ce que Yochai Benkler appelle la « richesse des réseaux »[11]. Mais pour entrer dans ce réseau, il faut au moins pouvoir lire ce que les autres publient, ne serait-ce que pour commenter, corriger ici et là, etc. Si les programmeurs impliqués dans le projet Linux avaient publié leurs corrections et additions de code dans une revue savante, le nombre de contributions seraient beaucoup moindre et Linux aurait progressé à une fraction de la vitesse de développement qui a caractérisé cet extraordinaire projet.

Sans même parler de ce que l'accès libre peut aussi apporter à l'enseignement à tous les niveaux et donc à la reproduction des chercheurs, sans s'attarder sur les avantages que l'accès libre peut conférer à diverses catégories de praticiens (par exemple des médecins sur le terrain, aux prises avec diverses pathologies, voire épidémies), on comprend aisément que l'accès inégal aux publications scientifiques pénalise non seulement des individus qui sont ainsi incapables de tirer parti de tout leur potentiel, mais aussi les réseaux scientifiques : en limitant leur taille, en limitant la vitesse avec laquelle l'information peut circuler, on les appauvrit tout simplement.

On peut réitérer cette thèse autrement en faisant remarquer que le scientifique sans accès à la littérature pertinente ne peut pas établir de liens avec des collègues qui, pourtant, pourraient facilement bénéficier de ses compétences particulières, de ses idées, aperçus ou intuitions. De son côté, il ne peut guère espérer s'intégrer dans un « collège invisible » au niveau international et demeure ainsi bloqué au niveau national, voire local. En quelques années, ses connaissances, ses aptitudes se sont dégradées par le simple fait qu'elles n'ont pu suivre l'évolution générale de son champ de spécialisation. Les seuls textes auxquels il a régulièrement accès, dans le meilleur des cas, sont les articles publiés dans des revues locales ou, au mieux nationales. Ceci ne veut pas dire que les grandes théories (par exemple, le darwinisme ou les théories d'Einstein) ne se propagent pas avec une relative efficacité dans toutes les régions du monde, mais ceci veut dire que les possibilités de réellement travailler avec ces théories demeurent limitées.

Certains auteurs, tels Sverker Sörlin et Hebe Vessuri, ont tenté de distinguer « économie de la connaissance » et « société de la connaissance ». La première serait caractérisée par le rôle des connaissances dans la croissance économique, tandis que la seconde reposerait sur l'idée d'une phase historique particulière où la connaissance non seulement occuperait un rôle central, mais créerait aussi un climat d'émancipation pour les sociétés entrant dans cette phase historique[12] : projet plus politique qu'économique donc. Il est clair que la situation actuelle de l'accès aux publications scientifiques renvoie peu aux espoirs d'une « société de la connaissance », mais plus à la rapacité d'une « économie de la connaissance ». D'ailleurs, les limitations que les barrières économiques imposent à la circulation des revues scientifiques donnent même un tour plutôt sinistre à cette économie : tout fonctionne comme si la connaissance de pointe ne devait surtout pas s'étendre aux régions dominées du monde. En effet, ainsi que le notent Sörlin et Vessuri, l'économie de la connaissance inclut aisément des dimensions impérialistes : à tout le moins, elle favorise l'instauration, la perpétuation ou le renforcement des rapports de pouvoir entre nations.

Parmi tous les coûts qu'engendre pour nos sociétés la situation actuelle de la communication scientifique, il en est un qui mérite d'être particulièrement souligné car peut-être un peu moins visible. Chaque revue incorpore une carte des secteurs de recherche et des questions qui lui paraissent implicitement et potentiellement intéressantes. Celles-ci se sont développées au détour d'un processus de sélection historique de telle sorte que les questions jugées les plus intéressantes répondent soit à des questions théoriques, dont la problématique a été développée dans la très grande majorité des cas dans les laboratoires des pays riches, soit à des besoins d'ordre plus pratique, mais également liés à la conjoncture socio-technique (et médicale) des mêmes pays. La plupart des lecteurs, en effet, vivent dans des pays riches et le prix des abonnements garantit le maintien de cette situation. Ceci veut dire qu'un scientifique d'un pays pauvre, pour publier dans une telle revue, en plus de tous les autres obstacles qu'il doit surmonter, doit inscrire ses travaux dans une problématique et/ou un champ de recherche largement définis par les chercheurs du « Nord ». En d'autres mots, les rares individus qui arrivent à faire de la recherche dans les pays pauvres, doivent en plus la situer dans des domaines qui ne sont pas forcément prioritaires pour leurs pays, et qui en majorité ne le sont pas. En sélectionnant des sujets susceptibles d'être bien accueillis par des revues de pays riches, ces chercheurs, de facto, apportent une aide scientifique étrangère à des pays riches qui n'en ont guère besoin tout en ne donnant pas à leur propre pays le bénéfice de leurs efforts. Bien sûr, la valeur universelle de la science permettra de fournir une réponse crédible, mais certaines questions sont plus universelles que d'autres, pour copier Orwell. En d’autres mots, la pertinence des réponses de la science n’est pas garantie par leur validité. Cette dissociation entre validité et pertinence, on le sent bien, conduit tout droit à une « économie de la connaissance » et non à une « société de la connaissance »[13].

À première vue, la question de l'iniquité de l'accès, évidente en soi, devrait pouvoir se résoudre relativement simplement. Le coût des publications scientifiques, on l’a vu plus haut, est marginal lorsqu’on le compare au coût de la recherche et il pourrait encore baisser de manière significative en oubliant le coût du papier, le coût des profits excessifs, le coût de gestion des abonnements, le coût du marketing et de la publicité, etc. Il ne s'agirait donc que d'assurer ce financement en le liant au financement des programmes de recherche tout en assurant, bien entendu, la liberté éditoriale des équipes chargées de gérer l'évaluation par les pairs. Un tel programme paraît clair, irréfutable même. Comment se fait-il donc que la réalité se révèle beaucoup plus complexe et ambiguë ? Pourquoi les résistances sont-elles si vigoureuses ? Sur quoi reposent-elles ? Telles sont les questions que posera ce petit texte en se focalisant tout particulièrement sur les solutions qui émergent autour de la présence d'archives ouvertes.


L'importance du prestige dans la communication scientifique

Le libre accès, on le conçoit, ne suffit pas à assurer l’égalité d'accès pour tous, mais il supprime ou atténue fortement un certain nombre d'obstacles s'opposant à la mise en place d'un champ scientifique mondial qui offrirait des ressources documentaires comparables aux chercheurs susceptibles de les exploiter[14]. Le libre accès rencontre pleinement l'objectif d'optimiser la communication entre scientifiques et il constitue manifestement la meilleure façon d'optimiser également la productivité du système scientifique dans son ensemble. Déjà, nous rappellent Sörlin et Vessuri, les universités dans leur mode de fonctionnement classique, caractérisé en particulier par l'autonomie des chercheurs, sont extraordinairement efficaces quand il s'agit de produire des connaissances théoriques ou empiriques[15]. Le libre accès ne constitue que l'extension logique de ce principe et doit donc être interprété dans la même perspective. Il permet aussi de diminuer considérablement ce que l'on pourrait appeler les coûts cachés, individuels, institutionnels ou nationaux du système actuel de communication scientifique.

Pour autant, le libre accès continue de rencontrer de puissantes oppositions. Au-delà de la défense d'une situation de rentes que les grands éditeurs commerciaux ont réussi à instaurer à leur profit, il faut aussi considérer le fait que le libre accès ne touche peut-être pas assez directement certains points essentiels de ce que Merton appelait l'ethos des scientifiques. Rappelons encore une fois que les scientifiques recherchent la visibilité, l'autorité et le prestige.

La question de la visibilité peut être rapidement réglée. Le simple bon sens fait comprendre que la mise à disposition mondiale de publications diverses à toute personne disposant d'une liaison Internet raisonnable ne peut qu’entraîner une utilisation accrue de ces ressources[16]. Et la disponibilité entraînant l'usage, il n'est pas étonnant de voir le nombre de citations augmenter dans le cas des articles en accès libre[17]. En termes techniques, ceci veut dire que l'impact des articles en accès libre tend à augmenter dans la grande majorité des cas. Les seules exceptions concernent ces domaines très particuliers où la technicité du domaine réduit sévèrement, de toutes les façons, le nombre des lecteurs et où les lecteurs possibles, de par la nature de la discipline concernée, se trouvent à peu près forcément dans une institution qui subventionnera pleinement les besoins de lecture des chercheurs concernés[18]. Pour autant, les articles en accès libre jouissent généralement d'un impact accru et celui-ci se répercute positivement sur l'impact moyen des articles d'une revue, c'est-à-dire le « facteur d'impact »[19] de cette revue. Ce paramètre déborde largement les frontières de la visibilité pour aller rejoindre celles de l'autorité et surtout du prestige car les revues tendent à se concurrencer sur la base du facteur d'impact.

La question de l'autorité est plus complexe et est reliée à celle du prestige. Anthony Grafton en esquisse ironiquement quelques contours lorsqu'il explique : « De même que l'estrade miteuse, la carafe d'eau et l'introduction décousue et inexacte signalent la nécessité de prêter attention à une certaine personne qui va présenter une conférence publique, la note en bas de page confère de l'autorité à un écrivain »[20]. Grafton nous renvoie évidemment au lien bien connu entre auctor et auctoritas et il nous rappelle ainsi que la référence à des auteurs antérieurs fait partie de la stratégie qui consiste à se jucher sur les épaules de géants[21].

La question du libre accès s'est heurtée à la question de l'autorité, et ce pour deux raisons. Il faut d'abord se rappeler que le libre accès est difficilement pensable hors de la numérisation. Sans un coût marginal de copie à peu près nul, et un coût de distribution également proche de zéro, le libre accès demeure prisonnier des contraintes du monde des atomes (pour reprendre la célèbre opposition entre atomes et bits d'information de Nicholas Negroponte). Or, le nouveau médium numérique a commencé sa carrière à l'ombre du papier, tout comme celui-ci, imprimé, a débuté sa carrière à l'ombre du parchemin manuscrit au XVe siècle. En d'autres mots, le médium numérique a parfois été perçu de manière négative et même dévalorisante. Dans les sciences humaines, par exemple, les discussions sur le passage à la publication électronique des revues incitent encore certains participants à gémir sur le fait que le papier est extraordinaire, indispensable, incontournable, etc. La plainte est évidemment mal ajustée car, de nos jours, un chercheur en phase de documentation va à la bibliothèque surtout pour photocopier les articles et les emporter dans son bureau où il les classera et les lira (peut-être...). On peut donc se demander ce qui sépare cette pratique de celle qui consiste à interroger une base d'articles de chez soi, par Internet, et d'imprimer localement les articles intéressants, sinon l'économie de temps passé à aller à la bibliothèque. Hélas, logique ou non, le statut du papier joue encore un rôle dans certaines disciplines et le refus de passer à l'électronique affecte ainsi le libre accès.

Une deuxième raison qui a pu affecter négativement l'autorité de documents en libre accès et que l'on entendait avec une certaine régularité encore il y a quatre ou cinq ans, c'est que, si cela ne coûte rien à utiliser, cela ne doit pas être très bon. Cette façon d'aborder la question classique du rapport qualité/prix peut paraître un tantinet perverse, ou au moins paradoxale, mais elle joue évidemment sur le flou de la frontière entre l'autorité et le prestige. S'il existe de l'autorité sans prestige (l'adjudant générique de toute armée...), il n'existe pas de prestige sans autorité. Puisque les objets prestigieux sont souvent coûteux, on peut, si l'on n'est pas trop à cheval sur la logique, renverser l'équation et dire que les objets coûteux sont prestigieux. Au minimum, ils servent à distinguer ceux qui peuvent payer des autres et ils peuvent donc, effectivement, conférer une dose de prestige à leur propriétaire. À l'inverse, un objet obtenu librement soulève bien des interrogations sur sa légitimité et donc son autorité. Cela dit, la qualité d'un article ne dépend pas de son prix, c'est évident, et ce type d'argument s'entend de moins en moins. Néanmoins, il a contribué à freiner le libre accès.

L'autorité d'un article se repère à divers signes, telle l'appartenance institutionnelle de l'auteur, la réputation personnelle de celui-ci et la qualité des auteurs cités. Ceci permet de passer au contenu de l'article et de vérifier sa qualité intrinsèque quelles que soient les conditions de l'accès. Mais un jeune auteur, commençant sa carrière dans une institution de deuxième ou troisième rang, aura tendance à vouloir éviter des difficultés de carrière en cherchant à publier tout de suite dans les organes les plus « autorisés » de sa discipline. Car, finalement, l'autorité dépend surtout de l'identité de la revue où l'on publie. Être publié par Nature, Science, ou encore le New England Journal of Medicine, c'est garantir un passage sans problème devant le comité de promotion le plus pointilleux. Ici, autorité et prestige tendent à se confondre.

C'est sur la question du prestige que le libre accès apparaît le plus démuni. En effet, elle renvoie à une dimension de la science que les scientifiques rencontrent constamment, mais qui est peu analysée sous l'angle de la communication scientifique. La concurrence entre scientifiques est largement commentée par la sociologie des sciences, en particulier cette variante située dans le sillage des analyses de Bourdieu. La notion de « champ scientifique », nous rappelle-t-il, repose sur la possibilité de définir une forme spécifique de « ...lutte politique pour la domination scientifique... »[22]. Mais là encore, la communication scientifique n'apparaît pas comme cible centrale de l'analyse alors que les mécanismes soutenant la communication scientifique sont inséparables de questions politiques. Lorsque, par exemple, Bourdieu discute la question de la priorité, il souligne avec raison qu'elle est cruciale pour déterminer la paternité d'une découverte. Par conséquent, la rapidité de la publication importe au plus haut chef elle aussi, et ceci rend compte de certaines pratiques, par exemple d'échanges de preprints dans certaines disciplines : mais, nous dit-il, ce sentiment d'urgence ne peut en aucun cas justifier le recours à des quotidiens pour annoncer des découvertes, comme le firent certains scientifiques américains dans les années soixante. Bourdieu s'attache donc aux types de comportements qu'exhibent les scientifiques et les jauge à l'aune des règles du jeu scientifique, mais il n'analyse pas le mode de construction des hiérarchies de revues scientifiques qui pourtant gèrent étroitement la vie de ces organes de communication et des chercheurs eux-mêmes. Sur quoi s'appuie-t-on pour établir cette hiérarchie ? Qui a légitimité pour construire une échelle d'évaluation aussi importante ? Sur ces points, Bourdieu demeure silencieux alors que sa théorie des champs de production de biens symboliques pourrait aisément prendre en charge de telles questions.

Une autre question est soulevée au détour des revues scientifiques. Qui décide de la composition du comité éditorial, surtout dans le cas où une grande maison d'édition décide de lancer un nouveau titre sur le marché ? La nomination du rédacteur en chef ne peut pas se faire sans prêter grande attention à son statut, autorité personnelle, etc., mais au-delà de ces critères de base, comment s'effectue le choix final ? Or, un rédacteur en chef d'une revue scientifique est aussi un « gate-keeper » dont les décisions influent énormément sur la carrière de ses collègues. D'une certaine manière, dans la hiérarchie des rôles que peut occuper un scientifique, celui de rédacteur en chef doit bien se comparer à celui de directeur d'un bon laboratoire, à cette différence près que dans la cas du rédacteur, la décision fait intervenir des représentants de compagnies privées. Or, si l'on traite cette nomination comme une forme de promotion dans le champ scientifique, quelle autre forme de promotion laisse intervenir des intérêts commerciaux de manière aussi directe et claire ?

Reprenons la question des revues scientifiques en accès libre. Il fallut démontrer qu'une revue de haut prestige en libre accès ne constituait pas un oxymore. Épaulée par un don de 9 millions de dollars, la Public Library of Science (PLoS)[23] a pu utiliser toutes les ressources du marketing, y compris une vidéo publicitaire[24] et une version papier de facture très soignée, pour créer une revue, PLoS Biology en 2003. Celle-ci en un temps record se dota d'un facteur d'impact impressionnant de plus de 13. La même stratégie donna les mêmes résultats pour la revue PLoS Medicine, ainsi que d'autres revues lancées plus tardivement avec des ambitions un peu moins élevées. À l'évidence, publier dans une revue PLoS conférait aux auteurs un prestige commensurable à celui des revues du Nature Group, ce qui était exactement le but recherché.

Sans chercher à obtenir des résultats aussi spectaculaires (mais obtenus à un coût qui a menacé la santé financière de PLoS), BioMed Central a lancé un très grand nombre de revues – il y en a maintenant près de 200 – dont certaines commencent à bénéficier de facteurs d'impact respectables[25]. En Égypte, Hindawi propose maintenant 55 revues scientifiques en accès libre[26]. Là encore, les revues d'Hindawi s'accompagnent dans beaucoup de cas de facteurs d'impact raisonnables.

Les 400 revues de SciELO, elles aussi en accès libre, présentent un cas intéressant parce qu'elles tentent de se faire valoir de deux manières : dans la mesure du possible, elles tentent de faire entrer le maximum de leurs revues dans le Web of Science de la compagnie Thomson-ISI, mais les Brésiliens ont découvert à quel point cette stratégie était difficile[27]. Aussi observe-t-on maintenant la tentative de créer un registre des citations fondé sur ces revues de façon à pouvoir les étudier sur un plan quantitatif[28]. Abel Packer, un des responsables de SciELO avec Rogerio Meneghini, décrit la situation générale des revues du Tiers Monde ainsi :

Le nombre limité de revues répertoriées dans les bibliographies les plus importantes des pays développés a, historiquement parlant, limité la visibilité d’un grand nombre de publications des pays du Tiers Monde et l’accessibilité à celles-ci. ... Privés d’un contrôle de qualité systématique, les périodiques des pays en voie de développement ont été jugés en de nombreux endroits comme étant de deuxième zone. Encore pire, même les titres en provenance du Tiers Monde et répertoriés comme revues centrales sont souvent perçus comme des revues de seconde classe parce qu’elles proviennent du tiers-monde. Cette manière de voir se retrouve partout dans la communauté universitaire ainsi que dans les organismes de soutien à la recherche, et ce dans les pays développés comme dans les pays en voie de développement. Par conséquent, on assigne aux revues des pays en voie de développement les marques honteuses ou le mythe d’être de seconde classe et, de l’avis de beaucoup, l’indexation dans une bibliographie centrale ne peut que réduire cette perception[29]

Ce survol rapide des revues en accès libre révèle donc bien l'importance du prestige dans la publication scientifique. Tous les rédacteurs en chef de revues cherchent à augmenter le facteur d'impact de leur publication. On le critique parfois, comme le fait PLoS[30]; on tente aussi de trouver de meilleures façons de mesurer, comme le font Johan Bollen et ses collègues parmi beaucoup d'autres[31]. Quand on ne dispose pas de facteur d'impact parce que les revues n'ont pas été incluses dans les listes du Web of Science, on tente d'en créer un soi-même, et c'est ce que fait SciELO. Au total, on travaille le prestige de la revue avec les instruments disponibles, au premier rang desquels trône le facteur d'impact.

S'il est une leçon que l'on doit retenir des différents efforts pour produire des revues scientifiques en accès libre, c'est bien celle du prestige. Les chercheurs veulent se distinguer et la qualité de leurs travaux sera d'autant mieux et plus aisément reconnue qu'ils apparaîtront dans une revue respectée, voire admirée. Se faire admettre dans une telle revue correspond un peu à la possibilité pour un artiste de se produire sur une scène prestigieuse. Il n'est donc pas étonnant de voir les organes en libre accès chercher de manière presque obsessionnelle le prestige. Sans celui-ci, ils ne réussiront simplement pas à attirer les auteurs susceptibles de renforcer ce statut.

Nous allons voir que, dans le cas des archives ouvertes, cette question du prestige, largement négligée par les discussions, est encore plus aiguë.


Où en sont les archives ouvertes ?

Schématiquement, on peut faire remonter toute la problématique des archives ouvertes à la réunion de Budapest, organisée en décembre 2001 par l'Open Society Institute, et à sa suite, la « Budapest Open Access Initiative », publiée le 14 février 2002[32]. Deux façons d'atteindre le libre accès sont définies dans le texte du 14 février : l'auto-archivage des articles par leurs auteurs et les revues en accès libre. En 2002, il faut ajouter ce détail, l'auto-archivage ne fut défendu par presque personne hors Stevan Harnad et il faut rendre hommage à sa ténacité à cet égard, car quelques années plus tard, l'archivage, qu'il soit effectué par l'auteur lui-même, ou par quelqu'un d'autre (le plus souvent, un bibliothécaire), apparaît comme un des outils majeurs de la progression du libre accès. En 2001, la situation apparaissait autre, simplement parce que le transfert des droits aux maisons d'édition semblait faire obstacle. Les tactiques proposées alors par Harnad – avant-dernière version du texte plus corrigenda - paraissaient simplement irréalistes ou impraticables et il fallut que diverses maisons d'édition acceptent une forme ou une autre de la pratique d'archivage pour que cette stratégie gagne en crédibilité.

Cette deuxième étape a conduit, on le sait, à une liste de maisons d'éditions qui, d'une manière ou d'une autre, acceptent l'archivage en accès libre : il s'agit de la liste RoMEO[33]. Actuellement, cette liste couvre plus de 10 000 titres provenant de plus de 300 maisons d'édition. Moins de 10 % des titres mais 30 % des maisons d'édition recensées refusent l'archivage en accès libre. 29 % des titres et environ 11 % des maisons d'édition ne permettent l'archivage que des pre-prints, ce qui complique un peu la citation puisqu'il faut retrouver la source « citable » et même, dans bon nombre de disciplines, la page elle-même. Le même problème apparaît quand la maison d'édition permet l'archivage de l'article publié, mais pas dans le format de publication. Par exemple, Elsevier n'accepte pas l'archivage direct du fichier pdf correspondant à un article publié, ce qui force à produire une version identique quant au contenu, mais non identique quant à la forme.

À noter aussi que la liste d’environ 10 000 titres ne couvre pas les titres de toutes les revues savantes du monde. Mais même en acceptant le chiffre couramment utilisé d'environ 20 000 titres de revues de recherche[34], il est aisé de voir qu'une majorité de titres ne permet pas l'archivage : le silence en la matière équivaut à un refus. Refus discret, mais refus néanmoins. Enfin, les permissions accordées par les maisons d'édition ne sont pas exprimées sous forme de contrats. Ce sont des permissions « tacites » en quelque sorte, pour reprendre un terme fort utilisé au XVIIIe siècle en France, et qui permit à Diderot, par exemple, de poursuivre son Encyclopédie en dépit d'oppositions et obstacles divers. Si un changement devait advenir dans le climat socio-politique de l'édition scientifique, on peut aisément imaginer un changement d'attitude de la part des maisons d'édition. Ce détail a d'ailleurs retenu l'attention des auteurs d'un rapport récent proposé à la Commission européenne[35], qui recommande l'établissement d'un cadre contractuel entre auteurs et maisons d'édition permettant de mettre en place des politiques d'accès et de préservation, ainsi que d'interopérabilité.

La nature de l'archive a également soulevé de nombreuses questions. Le modèle initial, datant de 1991, était ArXiv de Paul Ginsparg, à l'origine situé dans les laboratoires nationaux de Los Alamos, avant de migrer vers l'Université Cornell. Cette archive spécialisée renvoyait à une culture disciplinaire assez particulière, celle des physiciens à laquelle Bourdieu faisait allusion dans son article sur le « champ scientifique », où l'échange des pre-prints était courant. L'idée initiale de Ginsparg fut de profiter de l'informatique et d’Internet pour rationaliser le processus d'échange et en augmenter la portée et la puissance. Ce faisant, il mit en branle un nouveau système de communication qui dut s'articuler au système existant. Résultat intéressant, et probablement unique, les éditeurs de physique, du moins aux Etats-Unis, et l'archive de Ginsparg, après quelques débats houleux au démarrage, ont su négocier une cohabitation somme toute harmonieuse d'où une conclusion générale est sortie : si baisse du nombre des abonnements aux revues il y a – et c'est un phénomène observé depuis plusieurs années – cette baisse ne peut guère être imputée à la présence d'ArXiv. D'autres facteurs sont clairement en jeu, y compris l'attitude des bibliothécaires pris entre la volonté de conserver leurs abonnements et un pouvoir d'achat déclinant. La bibliothèque semble ainsi devenir le filet de sécurité visant à garantir la perfection de la collection idéale derrière la collection en accès libre dans ArXiv. D'autres archives analogues sont connues : CogPrints et Repec, pour les sciences cognitives et l'économie, en sont d'excellents exemples.

La crédibilité croissante de l'auto-archivage, associée au désir des bibliothèques d'intervenir de façon efficace pour contrôler le coût de l'accès à l'information scientifique a ensuite conduit à un vaste mouvement qui s'est propagé à très grande, vitesse à travers la planète. Je veux parler des archives institutionnelles. Le mouvement a commencé à devenir visible, lui aussi, autour de 2002. Par exemple, au Canada, en 2002, aucune des bibliothèques de recherche ne disposait d'archive institutionnelle, mais 7 d'entre elles travaillaient un projet d'archive[36]. Maintenant, le Canada compte au moins 31 archives institutionnelles si l'on se fie aux statistiques offertes par le « Directory of Open Access Repositories »[37]. On observe des évolutions analogues un peu partout dans le monde.

Derrière le succès apparent des archives ouvertes se profilent bien des interrogations et doutes. La mise en place d'archives institutionnelles officielles dans une institution exige d'abord un aval de l'administration de ces institutions. Ceci implique un travail d'approche où il faut persuader un administrateur – directeur des bibliothèques ou même plus haut – de consacrer des sommes qui, sans être faramineuses, n'en sont pas moins significatives. La solution, souvent avancée, a été de présenter l'archive institutionnelle comme une vitrine de l'institution. Ce faisant on flatte l'orgueil institutionnel et, en même temps, on peut faire valoir des fonctions administratives utiles : panorama fiable de la recherche institutionnelle, accompagnée du panorama des thèses et mémoires, plus – pourquoi pas ? - des cours en ligne, de la littérature grise, des politiques, etc. Bref, l'archive institutionnelle commence ainsi à prendre un tour d'archive numérique ou virtuelle où les résultats de la recherche n'occupent plus qu'une fraction, pas toujours très reconnaissable ou visible, de l'ensemble.

Deuxième interrogation : comment ces archives se remplissent-elles. Un peu naïvement, ou peut-être en prenant ses collègues pour des naïfs, Stevan Harnad cherche à les convaincre d'archiver leurs articles en faisant valoir que cela ne prenait que quelques minutes et un petit nombre de frappes de touches[38]. La question, bien évidemment, ne relève pas du temps ou du nombre de frappes, mais bien de la motivation. Or celle-ci manque clairement puisque, au bout maintenant de quatre ans environ d'activités visibles, les archives institutionnelles ne révèlent, la plupart du temps, qu'une faible fraction de l'ensemble des textes qu'elles devraient engranger. On parle souvent d'un taux de l'ordre de 10 à 15 %[39].

Comment augmenter la quantité de résultats de recherche ? Cette question a été agitée de beaucoup de manières mais elle semble pouvoir se résoudre en conjuguant trois méthodes :

  1. Il semble absolument nécessaire de séparer clairement les résultats de recherche de tous les autres documents disponibles dans l'archive institutionnelle, et cette distinction doit être portée au cœur des moteurs de recherche qui exploitent les archives institutionnelles ;
  2. Il semble absolument nécessaire de bien distinguer collecte des documents dans l'archive et exposition de ces mêmes documents. Mettre en place cette distinction permet de beaucoup faciliter un point qui a fait couler beaucoup d'encre – celui du dépôt obligatoire des résultats de recherche dans les archives institutionnelles ;
  3. Enfin, et c'est un point qui ne fait que commencer à être étudié, il faut construire autour de ces archives des moyens pour engendrer non seulement de la visibilité, mais aussi de l'autorité et du prestige.

Regardons de plus près ce que ces trois points impliquent.

1. Séparer les connaissances validées des autres documents.

Issues, on l'a vu, de négociations internes aux institutions, les archives ont commencé à engranger non seulement des articles publiés dans les revues scientifiques, mais aussi de la littérature grise, des thèses et mémoires, voire même des travaux d'étudiants de premier cycle. Pour bonne mesure, des documents de politique interne et autres textes administratifs sont même parfois venus se loger à la même enseigne. Du point de vue du chercheur, le résultat ne peut apparaître que confus, surtout lorsqu'il est abordé par le truchement de moteurs de recherche permettant de « moissonner » ces récoltes ambiguës[40]. Si un moteur de recherche, dont la fonction est de trouver et filtrer de l'information, filtre mal, le résultat ne satisfera pas. C'est précisément ce que les chercheurs ont découvert en tentant d'utiliser ces nouvelles ressources. Or, dans une économie dite « de l'attention », le chercheur n'a pas de temps à perdre à séparer le bon grain de l'ivraie. Ses instruments de repérage traditionnels évitent largement ces types de difficultés et ce ne sera probablement qu'en dernier ressort, ou à peu près, que le chercheur tentera sa chance du côté des archives institutionnelles, du moins dans leur état actuel.

Pour dépasser cet obstacle, il importe de bien classer les documents et placer les articles de recherche, validés par une évaluation par les pairs, clairement à part, y compris au niveau des métadonnées. Sans cette précaution scrupuleusement respectée, les archives institutionnelles ne feront pas partie des outils que tout chercheur mobilise presque automatiquement et obligatoirement dans le cours de son travail ordinaire.

2. Distinguer la collecte de l'exposition.

Cette distinction peut paraître scolastique, mais elle est en fait cruciale. En effet, elle permet d'exiger le dépôt des articles de recherche sans, pour autant, entrer en collision directe avec les maisons d'édition. Elle peut donc simplifier par ce fait la question du dépôt obligatoire qui a fait récemment l'objet de vives controverses dans plusieurs pays du monde et, en particulier, autour des National Institutes of Health (NIH) aux États-Unis. Du même mouvement, la question de la préservation devient beaucoup plus simple à résoudre dans la mesure où celle-ci ne dépend pas du tout de l'exposition au public, mais requiert la possibilité de réunir les documents sous forme numérique. Disposer des documents sous forme numérique permet aussi d'effectuer des recherches diverses qui, sans exposer le document en question, permettent de l'identifier de manière précise. Pour une université, cela veut aussi dire qu'elle peut précisément évaluer les résultats des recherches menées dans ses murs.

Une fois les documents accumulés, on peut négocier les possibilités d'exposition au public avec chaque détenteur des droits mais on négocie en sachant que l'on détient déjà une collection significative d'articles de recherche.

3. Se doter de moyens pour engendrer autorité et prestige.

Le cas des revues le montre clairement, le libre accès ne règle pas les questions d'autorité et de prestige de manière entièrement satisfaisante ou convaincante. Grâce à une hiérarchie de revues construite de manière telle que quelques revues concentrent fortement les plus hauts niveaux de prestige, et grâce au fait que nombre de ces revues sont entre les mains de grandes sociétés savantes ou de quelques grands éditeurs internationaux, cette production de prestige est le fait d'une sorte d'oligopole auquel il ne faut pas oublier d'ajouter le Web of Science de Thomson-ISI[41]. Les raisons pour lesquelles Robert Maxwell, le fondateur de Pergamon Science, a pendant des années tenté de prendre le contrôle du Science Citation Index[42] ne sont pas difficiles à comprendre : en tenant à la fois une fraction importante des vecteurs de communication et l'outil le plus apte à créer du prestige, Maxwell aurait pu étendre son empire indéfiniment et ainsi détenir une influence considérable sur le développement des sciences.

Le prestige constitue en quelque sorte la monnaie la plus efficace dans le marché des biens symboliques et contrôler les moyens d'impartir ce prestige sur telle ou telle personne constitue un pouvoir extrêmement important, même si on n'en parle pas très souvent dans ces termes un peu crus de pouvoir dans les discussions sur la science. C'est par le système du prestige que certaines revues cherchent à attirer les auteurs eux-mêmes les plus prestigieux, créant ainsi un système de « renvois d'ascenseur » qui soutient l'ensemble de la communication scientifique. Prix, honneurs et postes importants viennent ensuite verrouiller les décisions prises au niveau des revues perçues comme les plus prestigieuses.

Les archives institutionnelles, jusqu'à maintenant, n'ont guère travaillé cet aspect de leur fonctionnement. Attachées à se développer de manière à planter des racines solides dans l'institution d'appartenance, soucieuses de bien s'inscrire dans les normes de l'interopérabilité, en particulier les normes OAI-PMH, les responsables de ces archives ont donc largement négligé ces questions. Pour autant, quelques exemples commencent à pointer dans cette direction. Par exemple, en Hollande, le projet Cream of Science met clairement en évidence les travaux d'un peu plus de deux cents chercheurs hollandais en donnant leur bibliographie complète et l’accès à environ 60 % de ces travaux[43]. Ce genre d'exercice, bien évidemment, se démarque assez clairement de la plupart des archives institutionnelles, mais il montre aussi comment un dispositif institutionnel, ici national, peut commencer à jouer son rôle de production de valeur symbolique ou, pour parler plus simplement, de prestige. L'extension de ce type de dispositif à l'ensemble de l'Europe, et même au-delà, contribuerait à créer des formes nouvelles de prestige. Cela dit, cette utilisation particulière des archives institutionnelles dépasse-t-elle réellement les fonctions des prix ou des tableaux d'honneur qui accompagnent régulièrement la vie scientifique ?

Plus fonctionnelle est l'archive thématique. En effet, elle répond directement aux besoins d'un chercheur. Rappelons que, dans une bibliothèque traditionnelle, l'utilisateur se limite généralement à deux ou trois sections correspondant à ses champs d'études. De la même manière, dans le monde numérique, la navigation devrait offrir une sélection de documents correspondant à des champs de spécialisation. Ceci ne veut pas dire la reconstruction des barrières disciplinaires qui ont tellement gêné le développement des recherches[44]; pour autant, une façon de se repérer par « pays de connaissances », pourrait-on dire, ne peut qu'aider et donc attirer les chercheurs et une organisation bien pensée des métadonnées peut produire ce résultat relativement aisément.

À cette jonction survient un des deux grands faux débats du monde des archives institutionnelles : faut-il construire des archives thématiques ou des archives institutionnelles ? L'autre grand débat, encore plus faux, est la question de savoir s'il faut une archive centrale ou non. Dans le premier cas, celui de l'archive thématique, la question de la spécialisation s'oppose à celle de la robustesse générale du système. Une archive thématique construite quelque part offre évidemment un guichet visible vers lequel le scientifique peut se diriger sans hésitation. En revanche, cette manière de faire ne sert aucune institution en particulier et peut donc ne pas recevoir le même type de soutien qu'une archive institutionnelle. Par exemple, l'Université Cornell a décidé d'abriter la base ArXiv en partie pour des raisons de prestige et parce que cette banque de données s'inscrivait bien dans le cadre de la politique institutionnelle actuelle de numérisation. Que changent les conditions financières de l'université Cornell, que changent aussi ses politiques sur la numérisation et la position institutionnelle d'ArXiv pourrait devenir inconfortable. L'exemple ici est purement hypothétique et rien ne menace ArXiv actuellement, mais simplement énoncer le scénario permet de comprendre la fragilité inhérente de ce système. Cette fragilité, en fait, est celle de tous les systèmes centralisés.

Par ailleurs, un ensemble réticulé de dépôts institutionnels, si étendu soit-il, ne pourra jamais couvrir plus qu’une partie plus ou moins importante de la production scientifique mondiale. On peut dès lors se demander pourquoi construire un tel réseau. La réponse peut s'énoncer en deux temps. D'une part, un tel réseau d'archives institutionnelles disposera d'un appui local fort, tout simplement parce que cette archive peut aussi servir l'institution-mère (fonction de vitrine, par exemple) ; d'autre part, ce réseau peut, pour chaque discipline couverte, jouer un rôle analogue à celui d'une revue savante, mais une revue savante au deuxième degré en quelque sorte. Examinons comment.

Une revue savante contribue à établir la valeur symbolique des produits de la recherche dans le concert des voix scientifiques. C'est d'ailleurs l'élément essentiel sur lequel s'appuient les grandes maisons d'édition et les grandes sociétés savantes : ensemble, elles gèrent leur concurrence par une bourse des valeurs scientifiques où le facteur d’impact (hélas) joue un rôle essentiel. Le dépôt institutionnel dans cette perspective, ne peut se faire valoir qu’à certaines conditions : il doit clairement séparer les documents validés des autres documents, y compris au niveau des méta-données ; ces documents, ensuite, doivent pouvoir être repérés par sujet et discipline. Mais avec ces ajouts, la collection locale d’articles commence à ressembler à celle que peut réunir une revue scientifique classique. Pour autant, quelques pas supplémentaires la séparent encore de la revue.

Collection incomplète d'articles en principe déjà validés par la publication dans une revue scientifique, le dépôt institutionnel est par essence fragmentaire, incomplet. Pour cette raison, il ne peut attirer efficacement un chercheur (toujours pressé) en quête d’information ciblée. Le dépôt institutionnel isolé ne peut donc prétendre aller très loin dans la direction de la revue savante. Ce n’est pas tellement que la taille des collections disciplinaires est généralement trop limitée – celle des revues l'est aussi - c'est surtout que la provenance institutionnelle des travaux ne permet pas de créer de la valeur symbolique crédible. Celle-ci, en effet, émane plus des « collèges invisibles »[45] par nature trans-institutionnels et internationaux que des institutions où œuvrent les chercheurs. Pour se rapprocher de la fonction revue, il faut donc construire des structures transversales aux institutions en suivant les traces des « collèges invisibles ». Pour atteindre ce résultat, il semble nécessaire de procéder à une mise en réseau de plusieurs dépôts institutionnels. À ce point du raisonnement, et si l’on pense à ces collections thématiques d’articles sous la forme d'analogues à des revues scientifiques, la question de leur valeur symbolique commence à prendre une forme pratique. Par conséquent, organiser des collections thématiques d’articles en réticulant des dépôts institutionnels, c'est en fait se doter de moyens pour créer de nouvelles formes de valeur symbolique.

On objectera que ceci n'est pas nécessaire puisque le travail est déjà fait par les revues existantes. En effet, ne l'oublions pas, nous parlons ici d'articles validés publiés dans des revues scientifiques légitimes. Dans une perspective qui ne vise que l'accès libre aux revues savantes, tenter de construire un système de validation supplémentaire peut paraître superflu sinon étrange. Le pourquoi se trouve dans le fait que les archives institutionnelles ne se remplissent pas spontanément. Nous avons mentionné plus haut des proportions de l'ordre de 10 à 15 % qui montrent bien que, laissées à elles-mêmes, les archives institutionnelles stagnent à un niveau suffisamment bas pour ne pas inquiéter les maisons d'édition (ce qui explique probablement en partie l'acceptation d'une forme ou d'une autre d'auto-archivage par une partie significative d'entre eux). Créer de la valeur symbolique autour des dépôts institutionnels agira à titre incitatif sur les chercheurs. Cette incitation ne remplace pas la possibilité de rendre le dépôt obligatoire ; il complète simplement la première stratégie et, ce faisant, il ne dilue pas l’intensité des efforts en cours pour obtenir le dépôt obligatoire à divers niveaux institutionnels, de l’unité de recherche jusqu’à la politique nationale.

Pour remplir ces archives, deux voies générales se présentent alors : le bâton et la carotte. Stevan Harnad, depuis déjà longtemps, défend le bâton, c'est-à-dire le dépôt obligatoire des articles dans les archives et, effectivement, là où cette politique arrive à s'instaurer, le taux de remplissage augmente énormément pour dépasser généralement les 90 %. Cette tactique doit donc être défendue de même que l'objectif recherché avec toute l'intensité nécessaire, mais il ne faut jamais sous-estimer la difficulté politique d'atteindre un tel objectif[46]. Curieusement, il semble que les institutions relevant du politique (organismes financeurs publics, par exemple) semblent avancer plus vite que les universités ou les instituts de recherche. On peut noter aussi des avancées réelles dans le monde politique lui-même : par exemple, les efforts pour créer un accès libre aux résultats de recherche financés par des fonds publics ont été intégrés dans une loi votée par la Chambre des Représentants et en cours d'examen au Sénat[47]. Au Brésil, une loi générale – il s'agit de la loi 1120/2007 - est également en cours de discussion[48]. Ces exemples montrent que le progrès vers l'accès libre par le truchement de politiques ou lois est réel, mais souvent assez difficile. En particulier, l'exemple des États-Unis révèle que ce progrès est accompagné d'une résistance de plus en plus acharnée des grandes maisons d'édition et de quelques sociétés savantes. Les déclarations du Partnership for Integrity [sic] in Science and Medicine (PRISM), par exemple, aux États-Unis, illustrent bien cette situation, y compris par leur caractère outré qui ont forcé cette coalition à battre en retraite et modifier sa rhétorique.[49] Difficile ou non, la voie du dépôt obligatoire dans un délai aussi court que possible demeure extrêmement importante pour l'avenir des archives ouvertes et il paraît utile de la poursuivre à tous les niveaux institutionnels, ne serait-ce que pour mieux sensibiliser les chercheurs à ces questions.

À côté du bâton demeure la possibilité de la carotte et c'est dans ce contexte qu'un retour sur la capacité de créer du capital symbolique ou, en termes moins liés à la sociologie de Pierre Bourdieu, du prestige me paraît important. Réitérons le fait que, personnellement, nous appuyons le mouvement en faveur du dépôt obligatoire des documents. Seulement, à la différence de Stevan Harnad, nous ne présentons pas cette voie comme la seule qui puisse marcher et, de surcroît, nous ne pensons pas que chercher aussi des stratégies d'incitation puisse affaiblir le mouvement en faveur du dépôt obligatoire des articles de recherche.

Nous avons vu plus haut que des réseaux d'archives ouvertes pouvaient, pour chaque thématique, discipline ou spécialité choisie, fonctionner un peu comme une revue savante. Le « un peu » ici pointe en direction d'une analogie, mais souligne aussi le caractère incomplet de cette comparaison. En effet, les articles déposés sont déjà liés à une revue particulière et si ce réseau d'archives doit fonctionner, pour un domaine donné, comme une revue, il lui faut en fait se définir un peu différemment d'une revue traditionnelle. En particulier, en ce qui concerne la question du prestige, il faut imaginer de nouvelles formes de capital symbolique. Quelles sont-elles ? Pour une part, ces réseaux d'archives ouvertes peuvent se focaliser sur des formes d'évaluation après publication que les revues ne peuvent guère offrir aisément (ou du moins n'offrent pas pour le moment). BioMed Central a inauguré un système de ce genre avec ce que cette compagnie appelle « Faculty of 1 000 ». En bref, il s'agit d'un ensemble de plusieurs centaines de scientifiques qui signalent, au détour de leurs lectures, des articles leur paraissant particulièrement intéressants et importants, surtout dans le cas d'articles pour lesquels leurs auteurs n'ont pas pu ou su les faire publier dans les revues les plus prestigieuses. Il s'agit donc d'un système qui vise à corriger les jugements, parfois trop hâtifs, résultant des choix de l'auteur au moment de soumettre un manuscrit, ou de l'évaluation par les pairs. Le système proposé ne remet pas en question la nécessité du jugement par les pairs, mais il permet d'offrir une sorte de procédure d'appel pour les articles qui pourraient apparaître avoir été injustement traités. Et cette procédure n'est pas anonyme, ce qui exige responsabilité et sérieux de la part de ceux qui proposent un article particulier par ce moyen.

S’agissant de l'évaluation après publication, les réseaux d'archives ouvertes peuvent utilement enrichir et compléter les outils dont nous disposons actuellement et qui sont, il faut bien l'avouer, peu nombreux et mal conçus pour ce genre de travail. L'impact des articles, tel que mesuré par le nombre de citations accumulées au cours de leur vie, renseigne dans une certaine mesure sur leur visibilité, voire leur popularité, mais les éléments contribuant à de forts impacts sont multiples et pas forcément convergents ; ils ne s'interprètent pas très facilement. On peut d'ailleurs rappeler que la notion d'impact a été conçue plutôt pour aider à jauger les revues (par le moyen d'une forme particulière d'impact moyen – le facteur d'impact) que les articles ou les auteurs. Hors l'impact, nous ne disposons de pratiquement rien d'autre pour évaluer la « valeur d’usage » d'un article. Les dépôts institutionnels en accès libre, s’ils sont correctement agencés, peuvent contribuer à mieux mesurer la « valeur d’usage » des articles qu’ils prennent en charge.

Pour obtenir ce résultat, diverses routes sont évidemment possibles. Nous ne les mentionnerons que brièvement ici car les développer nous entraînerait beaucoup trop loin. Mais, elles se classent sous deux rubriques générales : nouvelles métriques et nouvelles procédures d'évaluation. Par nouvelles métriques, on parle de mesures aussi banales, évidentes (mais aussi délicates à manier) que les téléchargements de fichier, les temps de consultation, etc. Les liens dans le monde virtuel offrent quelques analogies avec les citations – un détail qui a fait la fortune de Google - et peuvent donc aider à créer une métrique liée au monde du Web plutôt qu'au monde des publications savantes. Et ce n'est qu'un début. Toutes sortes de travaux portant sur ce que l'on appelle le data mining en anglais, ou le potentiel computationnel des documents numériques[50] laissent entrevoir bien des manières de mesurer la pertinence, utilité, fonctionnalité d'un article par rapport au réseau documentaire dans lequel il s'inscrit.

En ce qui concerne les nouvelles procédures d'évaluation, « Faculty of 1 000 » de BioMed Central offre déjà un bel exemple. Bien d'autres pourraient lui être ajoutées, y compris Cream of Science aux Pays-Bas qui joue le rôle d'une sorte de tableau d'honneur qui n'attendrait qu'à être étendu dans toutes sortes de directions, y compris pour les thèses, incidemment. Mais on pourrait également, ainsi que je l'ai déjà suggéré dans le passé, construire des guides de lecture qui, d'une certaine façon, ressembleraient aux guides de restaurants, tels le Michelin ou le GaultMillau[51]. En d'autres mots, il s'agirait d'organiser une évaluation des articles pour leur donner une valeur. Dans les guides de restaurants, on rencontre couramment des échelles d'évaluation symbolisées par le nombre de fourchettes ou par des étoiles ; le même principe pourrait s'appliquer aux articles. Un peu par facétie, j'ai suggéré dans le passé d'utiliser une échelle allant de un à quatre cerveaux pour mesurer la qualité de l'article, mais on comprend le principe.

Reste la question de « qui juge ? ». La réponse ne sera pas donnée ici parce qu'elle peut prendre bien des formes, mais on peut en esquisser quelques variantes. On peut imaginer des jurys internationaux et crédibles faisant ce travail, et l'on aurait alors une extension de la recette des « Faculty of 1 000 ». Mais on pourrait aussi imaginer une évaluation effectuée par les lecteurs, reprenant ainsi les méthodes explorées en particulier par PLoS One[52]. ArXiv donne aussi l'exemple d'articles modifiés après commentaires, offrant là aussi une « deuxième prise » après l'évaluation par les pairs[53]et cet exemple est particulièrement intéressant car il montre combien la fonction d'un article est d'alimenter une discussion et de faire avancer une ligne de front des connaissances. Lorsque la discussion s'arrête, au moins temporairement, on peut imaginer que ce problème est résolu, au moins pour les participants à un certain type de paradigme scientifique. Or, cet arrêt de la discussion, c'est exactement le choix opérationnel retenu par les promoteurs de Wikipedia pour définir la neutralité[54]. Je ne poursuivrai pas plus avant cette remarque, sauf à suggérer que la forme de l'article scientifique, une fois pris dans cet immense accélérateur et amplificateur qu'est le monde d’Internet, va très probablement se modifier en profondeur dans les décennies qui viennent[55].

Au total, donc, les archives ouvertes peuvent aussi attirer l'implication des chercheurs en leur offrant de meilleurs outils pour trouver des renseignements utiles, mais difficiles à détecter par les moyens classique et en leur offrant de meilleurs outils d'évaluation de ce qu'ils rencontrent par le hasard de leurs lectures et des citations de ces lectures. En plus, on le sait déjà, l'exposition en accès libre augmente la visibilité, l'impact et donc l'autorité et le prestige. Penser, par conséquent, à monter des procédures d'évaluation sur des réseaux d'archives ouvertes peut constituer cet ajout aux archives ouvertes qui va les aider à se remplir et donc à devenir beaucoup plus fonctionnelles. Couplées à la quête de politiques visant le dépôt obligatoire des travaux de recherche, ces possibilités d'évaluation peuvent même aider à obtenir la mise en œuvre de ces politiques.

Un pays, l'Australie, a trouvé une façon intéressante et intelligente de pousser la création d'archives ouvertes dans ses universités et de les faire se remplir avec efficacité en couplant la création de ces archives avec les procédures nationales d'évaluation de la recherche (Research Quality Framework ou RQF). L'idée fondamentale est de fonder l'évaluation de la recherche universitaire uniquement sur ce qui se trouve dans les archives institutionnelles (et ceci conditionne ensuite le niveau de soutien financier à l'université en question) parce que, argumente-t-on, l'efficacité requiert de s'appuyer exclusivement sur des documents numériques et aisément accessibles. L'idée complémentaire est d'organiser un budget significatif pour aider les universités à rapidement monter des archives institutionnelles, tant sur le plan technique que financier : il s'agit du Australian Scheme for Higher Education Repositories ou ASHER[56]. Ce programme découle, en fait, d'une étude antérieure destinée à démontrer l'importance de la recherche pour la vie économique de l'Australie : Public Support for Science and Technology[57]. Ce rapport soulignait également l'importance de l'évaluation sans oublier les questions d'accès aux résultats de la recherche. Il démontre, dans le cas de l'Australie, une aussi grande cohérence politique en ce qui concerne les archives ouvertes que le démontre le cas du Brésil dans le domaine des revues savantes avec SciELO. Évidemment, si le Brésil arrive en plus à passer la loi 1120/2007, il présentera alors le programme le plus complet et le plus cohérent en faveur du libre accès de toute la planète.

Au regard de ces considérations, on comprendra pourquoi une question qui semble avoir beaucoup mobilisé les Français est restée ici dans l'ombre : nous voulons parler de la question d'une ou de plusieurs archives dans un pays donné. Il s'agit là du deuxième faux problème mentionné plus haut. La question, en effet, est peu importante : même si un pays veut se doter d'une archive centrale, rien n'empêche d'en créer des régionales, plus proches des institutions, avec un mécanisme de concentration et de regroupement au niveau national. C'est là encore la solution que semble vouloir adopter le Brésil avec beaucoup de sagesse. En Grande- Bretagne, le « Depot » du JISC est une sorte d'archive centrale pour institutions démunies d'archives, et qui travaille donc à compléter le réseau national. L'Europe, avec le projet DRIVER, vise à créer un réseau européen cohérent d'archives ouvertes et la France y participe. On peut donc imaginer que l'archive HAL du CCSD en France ne formera finalement qu'un nœud parmi d'autres dans le réseau européen. Ce nœud sera peut-être particulièrement important, puissant, mais lui-même fonctionne déjà en miroir d’ArXiv à l'intérieur d'un réseau d'archives de physique distribuées dans divers pays du monde. Par conséquent, la question de la centralité ou non de l'archive renvoie plus aux modes de fonctionnement des institutions d'un pays et à la politique interne de ce pays qu'à la nature des archives ouvertes. Quelle que soit la décision prise dans un pays particulier, la France dans ce cas-ci, la solution sera toujours réticulée car le reste du monde ne viendra pas se loger en France. La question, finalement, semble être un artefact de l'échelle d'observation : dès que l'on dépasse les bornes de l'hexagone, la philosophie répartie ou distribuée reprend le dessus et « la » solution française n'apparaît plus que comme un point du réseau mondial des archives ouvertes qui est en train de se constituer.


Conclusion

La petite étude sur les archives ouvertes esquissée ici, a visé essentiellement à démontrer les points suivants :

  1. Les archives ouvertes et les revues savantes se complètent et doivent être développées dans cette perspective de complémentarité. En fait, les revues en accès libre et sans barrière économique pour les auteurs fonctionnent comme un dépôt thématique ou disciplinaire qui se serait doté de plusieurs instruments supplémentaires : évaluation par les pairs, capacité de publier électroniquement en divers formats, capacité de labellisation des auteurs publiés. Symétriquement, les dépôts institutionnels peuvent étendre leur rayon d’action vers la publication électronique et la labellisation, contribuant ainsi à faire converger les deux versants de l’accès libre.
  2. Les archives ouvertes n'arriveront pas plus que les revues à jouer un rôle significatif sans un engagement clair, net et décisif des gouvernements nationaux. De ce point de vue, les exemples du Brésil (pour les revues) et l'Australie (pour les archives ouvertes) frappent par la cohérence des visions qui les animent. Dans le cas australien, le lien entre évaluation de la recherche, financement des universités et développement des archives ouvertes, pour aussi augmenter l'accès de toute la population aux résultats de recherche révèle, une réflexion très poussée sur le rôle et le statut de la recherche dans la vie d'un pays.
  3. L'enjeu fondamental de la publication de la recherche, au-delà de la diffusion des résultats de recherche, tourne autour de la question de la valeur symbolique de ces recherches pour d'autres chercheurs (et bien entendu, pour d'autres segments de la société, allant des entreprises aux écoles, aux médecins, aux citoyens, aux décideurs, etc.). La situation actuelle de la communication scientifique se caractérise par une pauvreté relative des moyens d'évaluation : à l'évaluation par les pairs (y compris toutes ses carences et faiblesses) s'ajoute l'impact mesuré par le nombre de citations qu'obtient un écrit scientifique. Le passage à l'accès libre promet un enrichissement considérable des possibilités d'évaluation ainsi que la possibilité pour les communautés de chercheurs de recouvrer l'essentiel des outils d'évaluation. Ce dernier enjeu n'est pas mince.
  4. Finalement, si à l'universalité des résultats de la science doit correspondre aussi une mondialisation équitable des pratiques scientifiques, on comprendra que seul l’accès libre peut commencer à construire non pas une économie de l'information, mais bien plutôt une société de l'information.

Au total, on peut maintenant aisément le constater, les routes « vertes » et « or » de l’accès libre ne sont pas des routes séparées, encore moins concurrentes entre elles ; au contraire, elles se complètent de telle manière que l’on peut se demander ce qui a pu retenir si longtemps ce mouvement de convergence et de complémentarité. Ce faisant, le mouvement en faveur de l’accès libre peut se reconstituer en une forte unité et ainsi ouvrir l’accès aux recherches venant du monde entier à l’ensemble des chercheurs. En même temps, encadrée par des moyens d’évaluation plus riches, plus transparents, moins dépendants d’impératifs liés à la quête des profits, la communication scientifique pourra se déployer selon des principes moins oligarchiques, moins élitistes, moins hiérarchiques. Plus à l’écoute des besoins les plus pressants de l’ensemble de l’humanité plutôt que ceux de ses minorités riches, la science pourra enfin laisser une certaine place à cette conscience sans laquelle, dit-on, elle n’est que ruine de l’âme.


Notes

  1. C’est le niveau estimé par le Wellcome Trust. Voir http://ec.europa.eu/research/science-society/ document_library/pdf_06/workshop-kiley-022007_en.pdf, diapositive 3
  2. Les archives ouvertes n'arriveront pas plus que les revues à jouer un rôle significatif sans un engagement clair, net et décisif des gouvernements nationaux. De ce point de vue, les exemples du Brésil (pour les revues) et l'Australie (pour les archives ouvertes) frappent par la cohérence des visions qui les animent. Dans le cas australien, le lien entre évaluation de la recherche, financement des universités et développement des archives ouvertes, pour aussi augmenter l'accès de toute la population aux résultats de recherche révèle, une réflexion très poussée sur le rôle et le statut de la recherche dans la vie d'un pays.
  3. Ces coûts baissent, bien évidemment, si l'on utilise des logiciels de gestion libres, comme, par exemple, l’Open Journal System.. Voir http://pkp.sfu.ca/?q=ojs
  4. Le site officiel se trouve à l'URL suivante : http://www.openarchives.org/OAI/openarchivesprotocol.html. À noter que « open » ici veut dire interopérable et non en accès libre. OAI-PMH s'applique tout aussi bien à des archives fermées.
  5. Voir < http://www.oaister.org/ >
  6. Voir http://scholar.google.fr/ pour les Français. Curieusement, Google « nationalise » ce moteur de recherche. Au Canada, nous sommes spontanément conduits à l'URL http://scholar.google.ca
  7. En écrivant cela, je suis très conscient des limites imposées au processus de publication. En particulier, je suis très conscient des limites d'un fichier pdf et je sais que, tôt ou tard, nous allons payer très cher pour nous extraire du piège pdf pour pouvoir tirer tout le potentiel des documents numériques. Cela dit, même la production de fichiers XML, une fois le travail bien organisé, n'exige pas des dépenses énormes. Avec des fichiers HTML, mon collègue, Leslie Chan, de l'université de Toronto, cite souvent des coûts annuels de production de toute une revue pour environ 3 000 dollars US. Il collabore au projet Bioline (http://www.bioline.org.br/), organisme qui publie un peu moins de 60 revues en accès libre actuellement. SciELO donne des chiffres du même ordre. Abel Packer, expliquant ce que 1 million de dollars peut faire, parle d'un coût d'environ 6 500 dollars par revue par an en moyenne (2005) et d'un coût de 100 dollars par nouvel article. Voir http://www.ncsi.iisc.ernet.in/OAworkshop2006/presentations/ About-SciELO-a3c.ppt, diapositive 57
  8. L'équipement des laboratoires appelle un raisonnement analogue mais pourtant différent. En effet, la production d'appareils de laboratoires est difficile à concevoir hors d'une division du travail qui laisse effectivement une place légitime au monde commercial tandis que la publication des résultats de recherche repose sur un ensemble de compétences toutes présentes dans le monde de la recherche. De plus, répétons-le, les articles de recherche sont donnés aux maisons d'édition qui se chargent de les publier.
  9. Linus Torvalds est celui qui a lancé Linux, c'est-à-dire le noyau d'un système d'exploitation fonctionnant comme Unix, mais réécrit indépendamment du code Unix, grâce à une collaboration distribuée de centaines de programmeurs. Sur l'histoire de Linux, voir Peter Wayner, Free for All. How Linux and the Free Software Movement undercut the High-Tech Titans (New York, HarperCollins Publishers, 2000)
  10. Voir http://www.catb.org/~esr/writings/cathedral-bazaar/ cathedral-bazaar/ar01s04.html. Le texte « The Cathedral and the Bazaar » d'Éric Raymond est l'un des textes influents du mouvement en faveur des logiciels libres.
  11. Yochai Benkler, The Wealth of Networks. How Social production Transforms Markets and Freedom (New Haven, Conn. : Yale University Press, 2006). Disponible librement en ligne à l'URL suivant : http://www.benkler.org. Le titre du livre de Yochai Benkler renvoie évidemment au traité d'Adam Smith, The Wealth of Nations
  12. Sverker Sörlin et Hebe Vessuri, « Introduction: The Democratic Deficit of Knowledge Economies » dans Knowledge Society vs. Knowledge Economy (Londres, Palgrave MacMillan, 2007), pp. 2-32.
  13. À noter que la Public Library of Science va lancer une nouvelle revue scientifique en accès libre, intitulée : PloS Neglected Tropical Diseases. Voir http://www.plosntds.org/information.php. Le titre, accusateur, pointe en direction d'un système de publication qui délaisse les domaines où il n'y a pas de marché intellectuel, voire pharmaceutique, dans le cas cité
  14. La notion de « champ scientifique » est empruntée à Pierre Bourdieu. Elle est intéressante dans le contexte de cet essai parce qu'elle incorpore des notions de hiérarchie, pouvoir et concurrence. Elle complète utilement l'analyse des « communautés scientifiques » de Robert K. Merton qui pouvait certes repérer le « communalisme » des chercheurs mettant en commun les résultats de la recherche, mais qui demeurait aveugle sur les modalités précises et concrètes de la dissémination des résultats de recherche. P. Bourdieu, « La spécificité du champ scientifique et les conditions sociales du progrès de la raison », Sociologie et sociétés, vol. 7 No 1 (1975), 91-118
  15. Sörlin et Vessuri, op. cit. (note 12), p. 13. Plus loin (p. 14), avec grande prudence, les auteurs concluent cette partie de leur argument en écrivant : « ...although we know that academic values such as autonomy are not necessary to achieve good performance ratings, we can certainly not say that they work against performance ».
  16. À condition de ne pas tomber sur des fichiers dépassant 10 MO pour seulement quelques pages de texte, comme j'ai pu le constater dans la revue Retina. Voir, dans le numéro d'août 2003 Vol. 23 No 4, l'ensemble des « Brief Reports »
  17. Cette question a engendré une vaste littérature en très peu de temps. Voir http://opcit.eprints.org/oacitation-biblio.html. À noter que la disponibilité peut augmenter sans libre accès. Par exemple, les « Big Deals », ou ventes liées de collections de titres poussent des titres dans les bibliothèques qui, autrement, n'auraient probablement pas été achetés par celles-ci. Et l'usage de ces titres augmente évidemment parmi les lecteurs subventionnés d'une institution donnée.
  18. Voir Kurtz, M. J. and Henneken, E. A. (2007) « Open Access does not increase citations for research articles from The Astrophysical Journal ». http://arxiv.org/abs/0709.0896. La réponse de Stevan Harnad se présente sous un titre plutôt humoristique: Harnad, S. (2007), « Where There's No Access Problem There's No Open Access Advantage », http://openaccess.eprints.org/index.php?/archives/289-Where-Theres -No-Access-Problem-Theres-No-Open-Access-Advantage.html.
  19. Voir http://en.wikipedia.org/wiki/Impact_factor. On trouvera la version française de cette rubrique à l’URL suivant : http://fr.wikipedia.org/wiki/Facteur_d%27impact. La définition de Wikipedia est directement empruntée à Thomson Scientific. Voir http://scientific.thomson.com/free/essays/journalcitationreports/ impactfactor/
  20. Anthony Grafton, The Footnote. A Curious History (Cambridge, MA, Harvard University Press, 1997), p. 8 Ma traduction. Une version française de ce livre existe sous le titre « Les origines tragiques de l'érudition : une histoire de la note en bas de page » (Paris, Seuil, 1997)
  21. Souvent associée à Newton, cette expression remonte en fait au moins au XIIe siècle où elle est attribuée à Bernard de Chartres : dans ce contexte, elle renvoie certes à l'admirable vénérabilité des auteurs de l'antiquité, mais offre aussi une possibilité de voir plus loin qu'eux. Dans le cas de Newton, cette remarque vise Hooke, homme de fort petite taille...
  22. Bourdieu, op. cit. (note 14), 95
  23. < http://www.plos.org/ >
  24. < http://www.plos.org/downloads/video.html >
  25. < http://www.biomedcentral.com/browse/journals/ >
  26. < http://www.hindawi.com/journals/current.html >
  27. Dans mon article « In Oldenburg's Long Shadow: Librarians, Research Scientists, Publishers, and the Control of Scientific Publishing », j'ai tenté de décrire comment l'intervention du Science Citation Index avait contribué à transformer le champ scientifique en créant effectivement une bourse des revues définies comme les revues essentielles (« core journals ») des sciences. À l'ancien continuum de la hiérarchie des revues s'est substituée une hiérarchie à deux étages, ou plutôt un centre et une périphérie qui, curieusement, reproduisait assez fidèlement les caractéristiques du centre et de la périphérie dans la géopolitique de la planète. Disponible en ligne à l’adresse suivante : http://www.arl.org/resources/pubs/mmproceedings/138guedon.shtml. Pour un argument parallèle, mais centré sur le Brésil, voir José Rodrigues Coura; Luciane de CB Willcox. « Impact Factor, Scientific Production and Quality of Brazilian Medical Journals », Mem. Inst. Oswaldo Cruz, vol.98 no.3 (Avril 2003), disponible en ligne à l'adresse suivante : http://www.scielo.br/scielo.php?pid=S0074-02762003000300001& script=sci_arttext&tlng=.
  28. Voir R. Meneghini, R. Mugnaini and A. Packer, “International versus National Oriented Brazilian Scientific Journals. A Scientometric Analysis based on SciELO and JCR-ISI Databases,” Scientometrics, vol. 69, No. 3 (2006), 529-38.
  29. Abel L. Packer, « The SciELO model for electronic publishing and measuring of usage and impact of Latin American and Caribbean scientific journals », Proceedings of the Second ICSU/UNESCO International Conference on Electronic Publishing in Science held in association with CODATA, IFLA and ICSTI at UNESCO House, Paris 20–23 February 2001. Disponible à l'adresse suivante : http://eos.wdcb.ru/eps2/eps02016/eps02016.pdf. Ma traduction
  30. Voir http://medicine.plosjournals.org/perlserv/?request=getdocument& doi=10.1371/journal.pmed.0030291&ct=1&SESSID=ec83bafda4e1 fac9038fd4e97f08f0c4.
  31. Voir Johan Bollen, Marko A. Rodriguez, and Herbert Van de Sompel, « Journal Status », disponible en ligne à http://arxiv.org/abs/cs.DL/0601030. La conclusion de l'article mérite d'être citée : « The ISI IF for a given journal is based on the number of citations it receives, and ignores the prestige of the citing journals. Therefore, it is an indicator of journal status that favors popularity over prestige »
  32. < http://www.soros.org/openaccess/ >
  33. Le projet RoMEO fut financé par le Joint Information Systems Committee (JISC) quelques mois seulement après la publication de BOAI (voir http://www.lboro.ac.uk/departments/ls/disresearch/romeo/). Actuellement, la liste RoMEO est toujours financée par le JISC, appuyé par le Wellcome Trust (voir http://www.sherpa.ac.uk/romeo.php) et d'autres organismes dont l'Open Society Institute une fois de plus.
  34. Voir par exemple la présentation de Zetoc, service d'indexation de la British Library malheureusement limité aux membres du JISC (http://zetoc.mimas.ac.uk/) qui repose sur environ 20 000 titres. Dans ses débats multiples, Stevan Harnad mentionne souvent un nombre qui au fil du temps a lentement crû de 20 000 à 24 000 titres. La réalité, évidemment, est plus complexe car nombre de revues ne sont pas recensées très largement et n'apparaissent pas dans des bases de données comme Ulrich's Periodicals Directory. Ce phénomène doit être relié, évidemment, à la construction de la hiérarchie des revues scientifiques qui, à son tour, contribue au fonctionnement d'une économie de la connaissance. Derek J. de Solla Price, Little Science, Big Science (New York, Columbia University Press, 1963), p. 9, estimait à environ 100 000 le nombre de périodiques scientifiques vers 1970. A. J. Meadows, Communicating Research (Londres, Academic Press, 1998), p. 15, calcule 71 000 titres en 1987. Se fiant sur Ulrich, Michael Mabe estime le nombre de périodiques scientifiques en 2001 à environ 14 700 titres : « The Growth and Number of Journals », Serials, vol. 16 No 2 (juillet 2003), p. 192
  35. Françoise Vandooren and Mathias Dewatripont, « Study on the Economic and Technical Evolution of the Scientific Publication Markets in Europe » (DVR). Voir http://ec.europa.eu/research/ science-society/pdf/scientific-publication-study_en.pdf
  36. Kathleen Shearer, « CARL Institutional Repository Project », enquête de l'été 2005, disponible à l'adresse suivante : http://www.carl-abrc.ca/projects/institutional_repositories/pdf/ survey_results_2005-e.pdf
  37. < Voir http://www.opendoar.org/ >
  38. Voir, par exemple, Carr, L., Harnad, S. and Swan, A. (2007) « A Longitudinal Study of the Practice of Self-Archiving ». Working Paper disponible à l’adresse suivante : http://eprints.ecs.soton.ac.uk/13906/
  39. Pour des statistiques très précises sur près d’un millier de dépôts, voir http://roar.eprints.org/. Pour une étude de l’attitude des chercheurs, voir Swan, Alma P. et Sheridan N. Brown. JISC/OSI Journal Authors Survey Report. (Key Perspectives Ltd., 2004). Disponible à l’URL : http://www.jisc.ac.uk/uploaded_documents/JISCOAreport1.pdf
  40. Voir en particulier OAIster http://www.oaister.org/ et Google Scholar
  41. < http://scientific.thomson.com/products/wos/. >
  42. Communication personnelle de Eugene Garfield
  43. < http://www.creamofscience.org/en/page/language.view/keur.page >
  44. Rappelons que les travaux d’Eugene Garfield ont été soutenus par Joshuah Lederberg, Prix Nobel de 1958 – il n'avait alors que 33 ans – parce que ce dernier se plaignait de ne pas trouver les bibliographies interdisciplinaires dont il avait besoin. Sur les origines du Science Citation Index, voir Paul Wouters, The Citation Culture, thèse de doctorat de l'université d'Amsterdam, 1999. Voir aussi Blaise Cronin et Helen Barsky Atkins, The Web of Knowledge – A Festschrift in Honor of Eugene Garfield (Medford, N.J., ASIS, 2000)
  45. Sur les collèges invisibles, voir Crane, Diana. Invisible Colleges; Diffusion of Knowledge in Scientific Communities. Chicago: University of Chicago Press, 1972
  46. On trouvera une liste des institutions dotées d'une politique d'auto-archivage à l'adresse suivante : http://www.eprints.org/openaccess/policysignup/. La liste donne 14 institutions (du niveau du département jusqu'à l'institution entière) avec une politique obligatoire. On y trouve aussi une vingtaine d'organismes financeurs exigeant le dépôt des articles publiés grâce aux fonds de cet organisme, généralement dans les six mois qui suivent la publication.
  47. Voir http://www.earlham.edu/~peters/fos/2007/09/reminder-to-us-citizens.html où Peter Suber donne une série de liens documentant les efforts pour faire avancer une loi exigeant des chercheurs qui ont été subventionnés par les National Institutes of Health de déposer leur article en accès libre dans les 12 mois suivant la publication. Le vote positif à la Chambre des représentants a été annoncé par « The Alliance for Taxpayer Access » le 20 juillet 2007. Voir http://www.taxpayeraccess.org/media/release07-0720.html. Le Sénat n'avait pas encore voté le 13 octobre 2007, date de la rédaction de cette section du texte.
  48. On trouvera beaucoup de renseignements (en portugais) dans le blogue de Hélio Kuramoto, cadre supérieur de l'IBICT, à l'adresse suivante : http://kuramoto.wordpress.com/. Hélio Kuramoto est réellement la cheville ouvrière de cette loi. C'est également lui qui a lancé une pétition en faveur de la loi 1120/2007. Voir http://www.petitiononline.com/mod_perl/signed.cgi?PL1120
  49. Voir http://www.prismcoalition.org/. PRISM émane de l'Association of American publishers. Voir aussi l'article de Jennifer Howard, « Publishers' PR Tactic Angers University Presses and Open-Access Advocates », Chronicle of Higher Education, 21 septembre 2007. Disponible en ligne (avec abonnement à l'URL suivant : http://chronicle.com/cgi-bin/printable.cgi?article=http://chronicle.com/ weekly/v54/i04/04a01301.htm
  50. Clifford Lynch, depuis plus d'un an maintenant, essaye de faire valoir que les documents en libre accès sont nécessairement numériques et que, par conséquent, parler du libre accès sans bien voir tout le potentiel que ce format numérique commence à révéler à nos yeux encore trop prisonniers de Gutenberg, c'est faire sinon fausse route, du moins seulement une toute petite fraction de la route qui s'ouvre devant nous. Voir Clifford Lynch, « Open Computation: Beyond Human Reader-Centric Views of Scholarly Literature », Open Access: Key Strategic, Technical and Economic Aspects, publié sous la direction de Neil Jacobs (Oxford, Chandos Publishing, 2006), pp. 185-93. Disponible à l'adresse suivante : http://www.cni.org/staff/cliffpubs/OpenComputation.htm
  51. Voir mon article, « Open Access : A Symptom and a Promise », dans Open Access :...op. cit (note 49), pp. 27-38
  52. Voir http://www.plosone.org/home.action. Lire aussi le commentaire intéressant que l'on trouve à l'adresse suivante : http://www.enroweb.com/blogsciences/index.php?2007/02/19/ 118-plos-one-deux-mois-apres
  53. Voir http://arxiv.org/abs/quant-ph/0506201. Cet exemple a été identifié grâce à Enroweb (voir note précédente)
  54. Voir http://en.wikipedia.org/wiki/Wikipedia:Neutral_point_of_view
  55. Voir Clifford Lynch, « The Shape of the Scientific Article in the Developing Cyberinfrastructure », CTWatch Quarterly, vol. 3 No 3 (août 2007), 5-10. Disponible à l'adresse suivante : http://www.ctwatch.org/quarterly/articles/2007/08/ the-shape-of-the-scientific-article-in-the-developing-cyberinfrastructure/
  56. Voir www.nteu.org.au/policy/current/rqf/destfactsheets/ashersheet? file=FactsheetASHER30May07.pdf&friendly=
  57. Voir « Public Support for Science a nd Innovation. Productivity Commission Report » (Commonwealth of Australia, March 9, 2007), p. 280. Available on-line at http://www.pc.gov.au/study/science/finalreport/index.html