Dans le cadre du chantier éditorial visant à faire migrer la “Revue Internationale de photolittérature”, actuellement publiée sur le CMS Wordpress, vers une solution de publication plus pérenne et davantage conforme aux standards de l’édition savante, une première étape consiste à récupérer les données à travers l’élaboration d’une chaîne de rétroconversion (HTML to MD/YAML).

Ce billet revient sur les enjeux de ce travail de rétroconversion en posant la question : pourquoi et comment “déplateformiser” une revue ?

La remédiation des revues savantes : une logique de l’incunable ?

Pour comprendre le problème et les enjeux de la (dé)plateformisation des revues, auquel ce billet est consacré, commençons par poser très brièvement (et sans doute de manière trop schématique) le contexte historique dans lequel l’édition scientifique a pris la tangente numérique en France. Dans les années 1990, la question de la remédiation numérique des revues va donner lieu à des discussions animées entre différents acteurs, dont certains seront d’ailleurs amenés à jouer un rôle essentiel dans l’élaboration et le maintien des infrastructures numériques en SHS – pour n’en citer que quelques-uns : Marin Dacos, Gauthier Poupeau, Stéphane Pouyllau…

Au centre du débat, on retrouve évidemment la question des choix techniques à opérer pour négocier au mieux la transition numérique des revues. En résumé, deux grandes voies se présentent alors1 : tout d’abord, repartir de la philosophie du writable web énoncée par Tim Berners-Lee, en proposant un modèle éditorial basé sur un principe de réinscriptibilité, tout en mettant l’accent sur la structuration informationnelle. Ce choix implique cependant une rupture radicale avec le modèle éditorial des revues scientifiques, en encourageant la mise au point d’une nouvelle chaîne capable d’utiliser pleinement les potentialités du web. La seconde option consiste plutôt à opérer une remédiation “légère” des revues, fondée sur la transposition d’un modèle éditorial imprimé (lequel est particulièrement imprégné par une logique graphique) vers le Web. C’est cette seconde option qui conduira à la construction de CMS privilégiant une conception homothétique de la revue savante – comparables, si l’on peut se permettre cette image, à des “incunables” numériques. Le web est alors envisagé comme support de publication – mais pas encore comme un nouveau mode de production à part entière, susceptible de faire émerger des formes inédites de savoir et, à terme, un nouveau modèle épistémique.

Dans un entretien dont on peut lire le transcript partiel dans les annexes de la thèse de Nicolas Sauret, Stéphane Pouyllau regrette ainsi que les fondateurs de Revues.org ont fait “le choix de l’esthétisme graphique, et pas le choix de la structuration informationnelle”. Ajoutons que la préoccupation esthétique n’a sans doute pas été l’unique et principale raison du choix opéré en faveur des plateformes. Il y avait en effet un fort enjeu à ménager les professionnels de l’édition, dont le savoir-faire était pleinement inscrit dans un paradigme de l’imprimé. De ce point de vue, les CMS présentent deux grands mérites : d’une part, ils ne requièrent par principe que très peu de compétences informatiques ; d’autre part, ils ne bouleversent en rien ou presque la chaîne éditoriale, puisqu’ils interviennent à la fin du processus d’édition, alors qu’il n’y plus qu’à réaliser un simple copier-coller d’un texte établi avec des logiciels de traitement de texte classique (dans la plupart des cas, Word). Revers de la médaille : le monde de l’édition scientifique va prendre un retard considérable en termes de littératie numérique, dont on paie encore aujourd’hui les conséquences, malgré la bonne volonté des professionnels.

Édition savante : le temps des CMS

Depuis une vingtaine d’années, les chercheurs ont donc massivement investi le web afin de diffuser facilement et rapidement les résultats de leurs travaux, qu’il s’agisse d’articles, de données de recherches ou même d’archives (pré-publications, brouillons, supports visuels, enregistrements). Soucieux de garantir la diffusion de leurs textes en libre accès – et alors même que de nombreux éditeurs scientifiques, inquiets pour la pérennité de leur modèle économique, freinaient cet investissement de l’espace numérique – ces chercheurs ont, dans leur grande majorité, eu recours à des CMS, outils faciles à prendre en main, ne nécessitant que peu (ou pas) de formation éditoriale ni même informatique préalable, et simples à installer.

Bien évidemment, la communauté scientifique s’est rapidement organisée afin de concevoir des CMS qui répondaient à ses besoins et à ses exigences, en termes d’interopérabilité, d’indexation ou de pérennité des données. Les CMS Lodel (conçu et diffusé par OpenEdition), OJS (conçu par PKP) ou même SPIP pour publier les revues, le CMS Omeka (l’une des deux briques de la plateforme phlit) pour l’exposition et l’organisation de données iconographiques, en constituent les exemples les plus connus, en raison de leur utilisation massive aujourd’hui dans l’écosystème scientifique numérique.

Mais de nombreux projets scienfiques se sont également appuyés sur des outils plus génériques, conçus pour des formes de publication non-savantes, comme le blogging développé grâce au logiciel Wordpress, qui a récolté une adhésion massive de la part des chercheurs. C’est sur Wordpress qu’OpenEdition s’est basée afin d’ouvrir son service de Carnets de recherche Hypothèses. La création d’un carnet, hébergée sur la plateforme hypotheses.org, est conditionnelle à un ensemble de critères garantissant le caractère académique du blogue. Tout candidat doit remplir un formulaire définissant un projet scientifique, qui fait l’objet d’un examen par un comité éditorial. Hypothèses constitue un cas hybride intéressant: fondé sur un CMS grand public, à partir duquel une poignée de templates graphiques sont proposés, le service capitalise sur la réputation d’OpenEdition comme Plateforme d’édition scientifique, afin de légitimer son contenu. Il est vrai que les carnets, organisés en écosystème, et particulièrement bien indexés grâce au service mis en place par OpenEdition (voir le détail ici), gagnent une indéniable visibilité par rapport à un carnet de recherche qui s’adosse également à Wordpress, mais se retrouve isolé sur le web.

On peut cependant regretter un phénomène de double plateformisation, ou de sur-plateformisation, qui contraint encore plus le CMS Wordpress, sous prétexte d’offrir une solution éditoriale pleinement adaptée à la publication scientifique. On retrouve ailleurs ce phénomène de sur-plateformisation, par exemple dans le service Eman, qui propose des templates pour Omeka. S’il n’est pas question de critiquer ici ces services, on doit tout de même souligner un certain problème vis-à-vis de l’identification de ces outils conçus pour la publication scientifique par les chercheurs qui, bien souvent, n’ont pas nécessairement identifié la technologie qu’ils emploient vraiment : on dira ainsi “j’écris sur Hypothèses”, ou même “sur un carnet hypothèses” (remédiation d’un terme propre au carnet de recherche), plutôt que “j’écris sur Wordpress”, ou même “sur un blogue wordpress”, bien moins favorablement connoté. Cet effacement de la plateforme source par une nouvelle “marque” caractérise également ce que l’on qualifie ici de sur-plateformisation.

Déplateformiser l’édition savante ?

On sait depuis longtemps que la plupart des CMS génériques s’avèrent insuffisants au regard des standards éditoriaux et des besoins de la recherche – notamment en termes de structuration des contenus et d’indexation. C’est certainement la première problématique à laquelle la Revue Internationnale de photolittérature fait face : conçue sur un CMS Wordpress, la revue numérique a été pensée de manière très graphique pour s’intégrer à un écosystème éditorial plus large qui avait été conçu en amont de sa création. Si son esthétique a pleinement rendu satisfaction à l’ensemble de l’équipe éditoriale, elle présente de nombreuses lacunes structurelles au plan éditorial. Un exemple simple, mais éloquent, de cette conception d’abord graphique et non sémantique : les métadonnées, comme le résumé ou les mots-clés, font l’objet d’un balisage minimal qui se traduit par un affichage en gras sur le site de la revue (par exemple, div class="article_content" indifféremment employé pour toutes les métadonnées, excepté le titre de l’article correctement balisé h1).

Les métadonnées (incomplètes dans le présent exemple), des articles de la *Revue Internationnale de photolittérature*) ne sont pas sémantiquement balisées

C’est bien sûr ce type de désagrément que les plateformes d’édition et de publication spécialement conçues pour l’édition savante telles que Lodel ou OJS permettent d’éviter, à partir d’un travail de modélisation particulièrement fin de l’objet revue, et de la forme article. Le succès de ces plateformes et des pépinières qui utilisent ces CMS éditoriaux, fortement encouragées dans le cadre du PlanS, s’explique assez facilement : ces solutions de publication numérique “clé en main” garantissent le respect des principaux standards de l’édition savante (que les plateformes elles-mêmes ont d’ailleurs contribué à formuler), ainsi qu’une bonne indexation et la visibilité qui en découle. Ces plateformes de publication savante ont par ailleurs joué un rôle majeur dans le développement de la science ouverte.

Pourtant, même en usant des CMS les plus « vertueux », de nombreux chercheurs et éditeurs sentent bien les limites de ce qui reste un phénomène de plateformisation. Le CMS finit invariablement par se révéler prescriptif, et par contraindre à la fois les auteurs (notamment sur la forme de leur article – ce qui était déjà le cas, cela dit, dans l’édition papier) et les équipes éditoriales (qui travaillent sur une chaîne finalement très figée – souvent davantage que dans l’édition plus traditionnelle). Ce que l’on observe, en tant qu’éditeurs, c’est la difficulté à traiter des cas particuliers sur ces plateformes : la gestion des illustrations et l’articulation texte-image, pourtant cruciale dans certaines disciplines, la gestion des formats spécifiques (l’intégration de code informatique, par exemple). La gestion du processus d’évaluation, également, peut s’avérer complexe et peu adaptée selon le processus éditorial des revues, comme Nicolas Sauret a pu l’observer lors d’entretiens avec des éditeurs réalisés dans le cadre du projet Revue2.0 dirigé par Marcello Vitali-Rosati (Chaire de recherche du Canada sur les écritures numériques). Le CMS a ainsi produit, sans surprise, une forme réintermédiation, avec pour conséquence une procéduralisation de la “chaîne” éditoriale qui, en vérité, n’est pas si séquentielle que son nom le laisse croire, et nécessite une certaine souplesse. La “logique organisatrice de la plateforme” (pour reprendre l’expression de Vincent Bullich qui a proposé des études très complètes sur le concept de plateformisation) est évidemment séduisante pour tout éditeur, dont le métier repose sur la rigueur et le respect de standards formels, mais sa rigidité peut se transformer en frein à la publication de certains contenus ne répondant pas strictement à toutes les normes. Pour le chercheur, cette standardisation de la publication scientifique peut également se traduire par une difficulté à produire, via l’exploration de formes d’écritures innovantes ou alternatives, de nouvelles (formes) de connaissances (c’était l’argument principal de la thèse de Nicolas Sauret).

Si un certain consensus existe aujourd’hui pour dénoncer des monopoles éditoriaux en des termes institutionnels Vincent Larivière l’a très bien fait, dans une étude qui souligne le monopole de Springer ou Elsevier, par exemple. Mais on questionne finalement assez peu le monopole technique : quel outil utilisons-nous pour éditer et publier ? Quand on sait que 30 000 revues utilisent la plateforme OJS, ne peut-on pas s’inquiéter d’un risque d’uniformisation des revues et de leurs contenus ? Uniformisation qui touche, par ailleurs, les compétences des éditeurs scientifiques eux-mêmes, dont la littératie numérique est entièrement arrimée à l’édition sur des plateformes telles qu’OJS ou Lodel, et non à l’édition numérique de manière plus large.

Ainsi, ce questionnement sur la plateformisation de l’édition scientifique souligne la tension de plus en plus forte entre une communauté de chercheur·es et d’éditeur·rices dont la littératie numérique demeure encore limitée, et pour qui ces plateformes constituent une manière de se libérer des contraintes de l’édition traditionnelle, et une communauté de plus en plus lettrée soucieuse de s’émanciper davantage encore des monopoles éditoriaux.

De l’article à la donnée : proposition pour une chaîne de rétroconversion

Dans le cas de la Revue Internationale de photolittérature, la nécessité de trouver une solution alternative à Wordpress est assez évidente, ne serait-ce que pour améliorer la structuration et l’indexation des articles. L’un des premiers objectifs de cette résidence est de faire migrer la revue vers une solution de publication plus pérenne et plus conforme aux standards de l’édition scientifique. Un travail de rétroconversion s’impose, qui donne également l’occasion de se questionner sur la nouvelle forme, et le nouveau format, que l’on va donner aux articles qui la composent. Or quitte à effectuer cette rétroconversion, pourquoi ne pas envisager un mode de publication qui s’émanciperait de toute plateforme, y compris celles qui se sont pourtant imposées dans le paysage de l’édition scientifique ? Dans un esprit low-tech, plusieurs pistes sont envisagées, en adéquation avec une approche de type Single Source Publishing : un site statique avec HUGO ou QUARTO, une revue générée via l’API de Stylo (on détaillera tout cela dans de prochains posts).

L’objectif de cette démarche est d’opérer un retour à l’article conçu comme un ensemble structuré de données implémentées dans des formats plain/text : un corps de texte en format makdown, des métadonnées en format YAML, une bibliographie en BibTex. En s’émancipant de l’influence des plateformes, l’idée est d’abandonner le paradigme de l’article tel qu’il s’est constitué (et figé) comme une forme médiatique. L’auteur et l’éditeur devraient ainsi, idéalement, écrire et éditer sans penser leur tâche en fonction d’un outil, mais en fonction des contenus de l’article, tout en travaillant ses propres transformations, avec la possibilité de personnaliser et d’enrichir. L’approche SSP offre ainsi une liberté bien plus grande qu’une plateforme ou qu’une base de données relationnelle.

Mais revenons-en à la question de la rétroconversion : comment procéder ? Quelle méthodologie et quels outils utiliser ? Peut-on génériciser une chaîne de rétroconversion ? Dans un prochain post, je détaille le chantier de rétroconversion de la Revue Internationale de Photolittérature.

  1. Mentionnons, en parallèle à ces deux propositions, une troisième voie possible : le dépôt direct d’articles (souvent des pre-print) sur des plateformes dédiées, à l’instar d’arXiv.org fondé dès 2004 par Paul Ginsparg, principalement utilisé dans le domaine des sciences dures et de la physique.