« Parlons d’interopérabilité, terme englobant bien mal usité, souvent par facilité, par bien des gens pour masquer leur incapacité à traiter le fond des choses et leur manque d’ingéniosité » m’écrit l’un d’entre vous.
Qu’est-ce que l’interopérabilité ? Un mot, tout d’abord, composé de :
- un préfixe on ne peut plus contemporain : inter (voir Internet, international, interactif, intérimaire…),
- une racine ancestrale et agissante : opéra, latin opera de opus, l’ouvrage, le travail,
- le suffixe à la mode : -bilité (dont j’avoue avoir moi-même abusé dans ces pages), cette possibilité permanente, celle du slogan de la Matmut : « Tout est possible, tout est réalisable », une ouverture vers le futur et ses incertitudes, une façon peut-être de se démarquer du présent, trop net, trop sec, trop peu vendeur.
Un défi ensuite. Qu’est-ce qui doit être capable de travailler/fonctionner/opérer en relation avec quoi ? Les cas de figure sont nombreux : un sèche-cheveux avec la prise de courant de la salle de bain, un train avec les rails (voir l’intéressante histoire des écartements des voies), un fichier numérique avec un logiciel de lecture, un fichier numérique majeur (i.e. de plus de 18 ans…) avec un logiciel de lecture qui n’existe pas encore… L’interopérabilité est conditionnée par les caractéristiques techniques des outils (dimensions, puissance, codage, etc.) communs aux et aux autres.
Face à la multitude des fabricants, la seule façon de créer l’interopérabilité est la normalisation qui fixe a priori les caractéristiques techniques de l’accostage efficient entre les outils. Dès lors, de deux choses l’une : ou bien les outils sont conçus dès le départ pour fonctionner avec d’autres selon les normes établies, ou bien ce n’est pas le cas. Si ce n’est pas le cas, de deux choses l’une : ou bien on trouve un outil intermédiaire qui corrige l’inadaptation de l’outil initial (de même qu’une écluse permet de compenser une dénivellation de terrain sur le trajet d’un canal), ou bien on n’en trouve pas et on doit abandonner cet outil.
La question de l’interopérabilité semble maîtrisée dans le domaine de l’électricité et du transport ferroviaire mais la marge de progression est immense pour l’information numérique. Le référentiel général d’interopérabilité (RGI) rappelle pour la France les bons principes et les normes existantes mais la normalisation est loin d’être achevée au plan de la communauté utilisatrice c’est-à-dire au plan international.
Par ailleurs, l’interopérabilité dans le domaine de l’information numérique ne doit pas se limiter pas à la normalisation des éléments techniques qui supportent et véhiculent l’information (formats d’encodage, disques, interfaces de programmation, protocoles d’échange). Il est essentiel de progresser sur la maîtrise de la matière numérique elle-même : un fichier numérique doit passer d’un système A (qui l’a produit) à un système B (qui le stocke) puis à un système C (qui le réutilise) ; il faut donc que les outils sachent satisfaire à l’exigence de circulation des données ; mais qu’est-ce que ce fichier ? À qui appartient-il ? Qui implique-t-il ? Est-il le reflet d’une réalité ? Est-il autoportant ou dépendant d’autres fichiers ? À quoi peut-il servir ? Pendant combien de temps ?
La qualification des données est un préalable à l’évaluation de l’interopérabilité car l’interopérabilité n’est pas une fin en soi ; elle n’a de sens que si les données qui circulent sont pertinentes, si elles sont organisées en « paquets d’information » pour reprendre la terminologie de la norme de pérennisation OAIS (ISO 14721).
Parler de l’interopérabilité des systèmes d’information et des plates-formes de conservation numérique sans contrôler la pertinence (et l’évolution de la pertinence) des données gérées, cela peut s’apparenter à brancher un réfrigérateur sur une prise télé ou faire circuler une brouette sur une voie de chemin de fer…
Je trouve ce billet très intéressant car il permet de comprendre que l’interopérabilité « en l’air » ou à tous bouts de champs devient un peu ridicule. Cela me rappelle les projets de recherche qui manipulent des corpus et des données en voulant les rendre interopérable en OAI-PMH et qui font rentrer n’importe quoi dans les étiquettes Dublin Core et qui disent : « Mais on est OAI ! » ;-).
Cela dit, si je suis d’accord avec les conclusions, je pense que c’est en forgeant que l’on devient forgeron, je trouve bien que des chercheurs, bibliothécaires aient le réflexe de « penser » interopérabilité de leurs données car cela permet aussi de se poser d’autres questions, par exemple sur la diffusion et le partage de documents, qui avant n’étaient pas vraiment exprimées. Je préfère une équipe de recherche qui monte un projet pour rendre des métadonnées interopérables et qui se « loupe » un peu sur la façon de proposer les choses (il n’est pas facile d’accepter par exemple de simplifier des métadonnées en DC et de comprendre que l’on peut les avoir aussi dans un format plus riche dans le même entrepôt OAI-PMH) qu’une équipe qui ne propose qu’une interface web de recherche avancée. Avoir le réflex de l’interopérabilité technique est un premier pas, pas suffisant, mais un premier pas. Ensuite on peut progresser.
Pour moi et dans mon secteur, réussir un projet ou un programme avec la mise en place d’une logique d’interopérabilité des métadonnées par exemple, c’est surtout se comprendre. Ce comprendre entre chercheurs, bibliothécaires, documentalistes, informaticiens, ayants-droits, etc. Le premier travail est souvent un travail d’interopérabilité « humaine ». C’est aussi accepter que l’autre comprenne ce que je veux faire et moi, lui laisser la possibilité de faire différent avec mes propres techniques.
Ensuite, l’interopérabilité sémantique requiert aussi un niveau de consensus assez élevé dans une communauté scientifique je pense : c’est avoir nommé les choses et être d’accord sur ce qu’elles représentent.
Stéphane POUYLLAU.
Vive l’interopérabilité « humaine » ! Merci de votre témoignage.
Merci Marie-Anne de rappeler que « l’interopérabilité n’est pas une fin en soi ». Je crois que l’essentiel de votre article tient dans cette phrase très pertinente et les deux images utilisées à la fin illustrent parfaitement cette idée. On pourrait brancher n’importe quoi sans qu’il y ait un sens en réalité…
Si les données échangées ne sont pas pertinentes et si elles n’ont pas de sens, il n’y a pas vraiment d’interopérabilité. On parle de plusieurs niveaux d’interopérabilité: interopérabilité technique et interopérabilité sémantique, les deux sont nécessaires et devraient être indissociables. Je rajouterai pour ma part la notion d’interopérabilité archivistique qui est bien résumée dans votre article: « qu’est-ce que ce fichier ? À qui appartient-il ? Qui implique-t-il ? Est-il le reflet d’une réalité ? Est-il autoportant ou dépendant d’autres fichiers ? À quoi peut-il servir ? Pendant combien de temps ? ».
Vous avez raison, Lourdes, de rappeler les différents types d’interopérabilité: technique, sémantique. Mais je crois que le terme de « niveau » n’est pas adapté car je ne vois pas de hiérarchie (notion que je mets dans niveau, à tort peut-être…); je dirais plutôt « facette ». Il y aurait trois facette d’interopérabilité: celle du support (au sens large: format, support, logiciel, infrastructure), celle du document en tant qu’objet émanant d’un auteur (l’interopérabilité archivistique se situe là sans doute), et celle de l’utilisateur qui doit ou veut accéder à l’information.
En tout cas, je suis frappée par l’écart entre ce qu’on peut lire sur l’interopérabilité technique et l’interopérabilité sémantique; ça ne communique pas tellement. Il faudrait peut-être réfléchir à l’interopérabilité des interopérabilités…
Pour élargir la réflexion sur la facette utilisateur, voir l’article d’Emmanuel Bermès, intitulé « Convergence et interopérabilité : l’apport du Web de données » qui analyse les méthodes techniques de mise en réseaux des ressources patrimoniales.