Déchiffrer les mutations de l’écrit : Infrastructure et dématérialisation

Ce mardi 27 mars, j’ai été écouté la conférence que Jean-François Blanchette donnait à l’Ecole des Chartes sur le thème Déchiffrer les mutations de l’écrit : Infrastructure et dématérialisation (http://www.enc.sorbonne.fr/cycle-de-conferences-sur-le-document-numerique.html).

Blanchette est un professeur d’origine québécoise qui enseigne maintenant au Département des Information Studies de l’UCLA à Los Angeles (et pas San Francisco) et dont le leitmotiv actuel est la question de la matérialité des archives numériques, question largement ignorée dans le discours ambiant à l’heure de l’informatique en nuage. C’est un sujet qu’il a déjà abordé dans ses publications récentes :

  • The Noise in the Archive: Oblivion in the Age of Total Recall,” in Privacy and Data Protection : An Element of Choice. (Serge Gutwirth, Yves Poullet, Paul De Hert, and Ronald Leenes, Eds.), pp. 25-38. Springer, 2011. [PDF preprint]
  • Infrastructural Thinking” as Core Computing Skill, Blanchette, Jean-François, Information Studies, UCLA, in Digital Humanities 2011, June 19-22, http://dh2011abstracts.stanford.edu/xtf/view?docId=tei/ab-263.xml;query=;brand=default
  •  « A Material History of Bits, »  Journal of the American Society for Information Science and Technology, 62 no. 6 (2011): 1042-1057 [Journal version] [PDF preprint]

Textes sur lesquels je reviendrai.

Il a donc tenté de résumer son cours de 34 heures à ce sujet (IS 270: Introduction to Information Technology) en une heure et demie, au bénéfice des étudiants de l’Ecole et de quelques archivistes professionnels qui avaient fait le déplacement.

L’information numérique est un objet physique

L’essentiel de son discours tient au fait qu’il n’est pas nécessaires pour les archivistes (ni pour les tenants des digital humanities par ailleurs) de maîtriser toutes les arcanes techniques de l’informatique mais qu’il faut qu’ils comprennent structurellement de quelle manière la matérialité informatique est constituée. Après un bref historique de l’évolution des architectures de l’informatique qui a amené à la création du middleware, niveau logiciel qui a permis de faire abstraction de la matérialité en servant d’interface standardisé entre la couche physique (les bits sur des supports) et la couche logique (les applications) il a détaillé les trois ressources principales qui constituent aujourd’hui cette espèce de sandwich informatique.

  • –       Les processeurs (usine logique)
  • –       Les outils de stockage (gestion de l’espace physique)
  • –       Le(s) réseau(x) (avec la gestion des capacités/tailles)

Chacun de ces éléments est assez simple à comprendre et à maîtriser pour lui-même et ils ont tous fait l’objet de normalisation. Ces normes (formats, protocoles, etc.) permettent l’interfaçage de ces différents éléments, ce qui a eu pour conséquence le développement fulgurant de l’informatique des dernières décennies car toute cette structuration permet une très grande souplesse dans les développements grâce à la modularité, Cette grande modularité n’est cependant pas toujours optimale en matière de sécurité, de rapidité, de contrôle et il existe actuellement une tendance de certains acteurs qui tentent de maîtriser verticalement la totalité des couches (c’est l’objet des débats quant à la neutralité d’internet, et dont on trouvera un excellent résumé récent chez Olivier Ertzscheid (http://affordance.typepad.com/mon_weblog/2012/03/documentation-haute-frequence.html) et (http://affordance.typepad.com/mon_weblog/2012/03/le-web-en-lettres-capital.html).

Cet aspect a permis à Blanchette d’insister sur le fait que les enjeux de cet ajustement entre les différents partenaires de l’informatique mondiale représentent des intérêts économiques colossaux qui se fichent éperdument de la fonction archives. Les enjeux sont plutôt liés aux capacités matérielles qui, mêmes si elles tendent à augmenter régulièrement, restent néanmoins limitées (vitesse des processeurs, capacité des réseaux, consommation électrique, pointes de fréquentation, etc.).

J’ai eu l’opportunité de continuer la discussion après la conférence, autour d’une bonne table. Compte tenu de ce qui précède, Blanchette n’est pas très optimiste quant à l’avenir de l’archivage numérique. En effet, toute l’industrie informatique est orientée technologiquement et économiquement vers le court terme et la nouveauté alors que nos professions défendent le long terme (c’est dit de manière un peu simpliste, mais c’est en gros le cas). Même si cela peut paraître mission impossible, je pense que des mises au point comme celle que Blanchette nous propose nous permettent justement de réfléchir avec une certaine hauteur de vue et de viser à élaborer des modalités de conservation les plus indépendantes possibles de ces aléas. Le meilleur exemple à ce jour étant celui du logiciel SIARD (Software Independent Archiving of Relational Databases) (http://www.bar.admin.ch/dienstleistungen/00823/00825/index.html?lang=frn) développé par nos collègues des Archives fédérales Suisses.

Ce premier contact IRL avec Blanchette m’a confirmé la pertinence de sa réflexion que j’avais pu percevoir à la lecture d’article antérieurs. Je me propose à l’avenir de développer d’autres idées sur la base de ses dernières publications.

A propos regarddejanus

Archiviste, Record-manager et enseignant
Cet article a été publié dans archivage numérique, conservation électronique, Informatique en nuage - cloud computing, support de données. Ajoutez ce permalien à vos favoris.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s