Recherche scientifique et théorie

Hyperdocumentation: entretien avec Olivier Le Deuff

Par Jonathan David, coordonnateur au CSS Marguerite-Bourgeoys et responsable du blogue Convergence

« Les métadonnées, comme le réseau électrique et le réseau routier, se fondent dans l’arrière-plan de la vie quotidienne, considérées comme allant de soi et faisant simplement partie de ce qui fait que la vie moderne fonctionne bien. »[1]

« Il se produit quelque part un renversement de programmation. Sans tomber dans la dichotomie entre « programmer » et « être programmé », il convient d’interroger les conditions de production des injonctions, et de comprendre comment y résister, voire comment en reprogrammer les intentions. »[2]

« Le risque est celui d’un doute généralisé en ce qui concerne la qualité de l’information, et d’une méfiance et défiance permanentes. Une des pistes serait de rappeler l’intérêt de la veille par rapport à la surveillance, et que veiller signifie aussi retrouver un peu de bienveillance. »[3]

Les objets (et par la bande les individus utilisant ces objets) sont de plus en plus hyperconnectés. Cette hyperconnexion vient avec une hyperdocumentation. Aujourd’hui bon nombre de nos activités sont documentées en temps réel, qu’on en soit conscient ou non. Les sociétés de demain seront-elles gouvernées par des régimes hyperdocumentaires? Où le sont-elles déjà?

Un tout nouvel ouvrage, publié plus tôt cette année par Olivier Le Deuff, Hyperdocumentation, fait l’histoire et l’analyse de l’hyperdocumentation en tant que théorie, mais aussi en tant qu’imaginaire aux potentialités réelles, puisqu’ils qui se concrétise bel et bien dans notre monde actuel à travers des dispositifs biens ancrés dans notre quotidien. Pour en savoir davantage, je m’entretiens avec l’auteur.

***

J.D. – Débutons d’abord sur le concept d’hyperdocumentation. Pouvez-vous brièvement définir son origine et son champ d’application? S’applique-t-il aux sociétés, aux individus, aux processus?

O.L-D –  L’expression écrite avec un tiret vient de Paul Otlet et de son Traité de documentation en 1934. Il s’agit pour lui de montrer les évolutions futures de la documentation et il en décrit le stade ultime qui sera atteint lorsque l’ensemble des activités humaines et des connaissances seront documentées, quelles que soient leurs formes. Otlet imagine ainsi que tous les sens finiront par rentrer dans le même modèle et que même ce qui relève du paranormal le sera. Ce stade est placé dans un avenir pas si éloigné pour Otlet qui y voit une évolution inéluctable et plutôt positive. Dans la vision d’Otlet, tout est concerné potentiellement par ce processus même s’il ne précise pas tout. Disons que les processus vont permettre de documenter l’ensemble des savoirs au point que l’individu va pouvoir accéder à un état de la connaissance digne de Dieu au point même de se demander s’il ne peut pas appuyer sur un bouton pour améliorer le monde tel qu’il est. L’hyperdocumentation s’applique aux organisations publiques comme privées notamment avec des états comptables qui pourraient permettre d’avoir des vues d’ensemble depuis la plus petite structure jusqu’à la plus grande qui serait une organisation supranationale.

Otlet aborde moins l’idée que l’individu pourrait voir l’ensemble de ses activités documentées notamment par des acteurs tiers. Toutefois, il entrevoit l’intérêt d’une documentation personnelle optimisée. Il se montre parfois dans une approche « totalitaire » avec des logiques documentaires appliquées à de nombreux cas de figure. Un de ses articles décrit l’application potentielle d’une logique classificatoire type CDU pour documenter les criminels. Ses visions ne sont pas sans rappeler celles qui participent du transhumanisme actuel.

J.D. – Dans votre livre, vous faites l’analyse de la documentation sous l’angle critique des « régimes documentaires ». Quelles sont les caractéristiques des régimes hyperdocumentaires ?

O.L-D – Les régimes hyperdocumentaires que je décris sont marqués par ces logiques qui visent à tout enregistrer et accroitre les possibilités d’exploitation des données obtenues. L’idée de « régimes documentaires », que j’emprunte à mon collègue historien et partenaire du projet Hyperotlet Bertrand Müller, s’inscrit dans la lignée des travaux de Michel Foucault à des enjeux de pouvoir et de domination. D’un point de vue positif, ces régimes participent du développement des travaux scientifiques notamment au niveau des études digitales ou humanités digitales. On peut ainsi bénéficier de corpus numérisés et de possibilités d’analyse nettement accrues du fait de l’indexation automatique et des potentialités de visualisation renouvelée. Mais cela se rapporte également aux nouveaux traitements pour analyser des masses de données disponibles notamment ceux qui compilent des données personnelles pour les rapporter à des ensembles plus complexes à des fins de comparaison et d’optimisation. Cela implique des traitements algorithmiques qui sont la manifestation d’une forme de « gouvernementalité algorithmique » pour reprendre l’expression Annette Rouvroy. Les entreprises qui maîtrisent ces processus sont bien entendu les dominants de ces régimes hyperdocumentaires qui sont marqués par une volonté d’accroire la connaissance sur les individus à des fins de personnalisation de l’information caractérisée par des stratégies publicitaires améliorées. Les déséquilibres produits posent évidemment des problèmes démocratiques d’ampleur, et ce d’autant qu’il est difficile de bien saisir les méthodes employées par des entreprises type GAFAM quand les services proposés semblent faciles d’usage. L’usage facilité dissimule une complexité d’infrastructure. Le succès de ces dispositifs obligerait cependant à rendre des comptes et à une certaine responsabilité (accountability) qu’il reste encore à instaurer de façon plus efficace.

J.D. – On pourrait croire que dans une société hyperdocumentée dans laquelle tout le monde documente tout, l’efficacité en serait grandement rehaussée. On documente toujours plus, mais est-ce dire qu’on documente mieux? Quels sont vos constats sur les qualités de l’information produite en masse actuellement?

O.L-D – À ce niveau, c’est le point paradoxal. Tout vouloir « documenter » se résume souvent à vouloir tout indexer de façon automatique. Cela ne signifie pas que tout est bien documenté en terme qualitatif. C’est d’un côté rassurant, car on s’aperçoit en consultant les profils automatisés que construisent certaines plateformes web qu’ils se trompent parfois totalement. Mais de l’autre, cela signifie aussi que les services proposés peuvent s’avérer déficients, ce qui peut s’avérer problématique quand cela entraîne des décisions néfastes pour les citoyens.

La masse d’information disponible ne cesse de croître, mais elle reste mal définie, les métadonnées sont peu normées et souvent insuffisantes, si bien qu’on se retrouve avec des situations où il devient difficile pour l’usager de reconnaître l’information de qualité. On sait néanmoins que cette responsabilité est désormais essentiellement reportée sur l’usager depuis l’avènement du web. Je constate malheureusement que même les structures documentaires finissent par connaître une dégradation du travail d’indexation manuelle alors qu’on espérait beaucoup du web de données. La qualité de l’information suppose des coûts et des métiers dédiés.

Vraisemblablement, les prochaines étapes consisteront à concevoir des dispositifs qui labellisent ou décrivent de façon plus précise les sources d’information. Des logiques hybrides sont à envisager, ce que tente de faire Facebook en payant des journalistes et des fact-checkers. Toutefois, ce genre d’actions tend à entrer en opposition avec une logique économique qui rapporte plus quand les actions virales y compris de désinformation obtiennent du succès sur le réseau, car elle génère beaucoup plus d’attention et d’engagement.

J.D. – Qu’est-ce qui fait « document » de nos jours, alors que l’on peine parfois à distinguer un peu de stabilité dans la forme connectée, virale, aisément modifiable et manipulable de nos fichiers? Est-ce qu’on est devant une crise du support? Ce manque de stabilité ne risque-t-il pas de nuire à la confiance générale et favoriser la création de faux documents et la prolifération de « vérités alternatives »?

O.L-D – Depuis le début, l’incertitude documentaire à la fois dans ses aspects conceptuels, pratiques et formes ne signifie pas une disparition du document, mais plutôt la manifestation d’une omniprésence. Le document est utilisé encore pour faire preuve, mais inévitablement il est possible de produire du faux en masse. L’industrialisation de la désinformation est constatable. Les méthodes de vérification sont en progrès comme en témoigne le développement de l’Open source Intelligence à laquelle on fait de plus en plus référence notamment dans le contexte de la guerre en Ukraine.  Mais le combat contre l’industrialisation du faux est complexe.

Le problème n’est pas de pouvoir vérifier l’information, mais de parvenir à le faire de façon aussi rapide que n’agit la désinformation sachant que l’impact de la viralité de la « fausse nouvelle » est bien plus fort que les explications pédagogiques pour démontrer la fausseté. Sur ce point, l’opinion est influençable et sans formation ambitieuse, la désinformation finit lentement par prendre le dessus. Contrairement à beaucoup de mes collègues depuis le début, je suis pour un régime de sanctions contre ces agissements. Le volet éducatif ne suffit pas. Je crois que les événements politiques et la déstabilisation démocratique qui s’accroît contre les régimes démocratiques obligent à traiter cette question de façon très sérieuse. Je déplore que trop souvent on est perdu dix ans voire quinze tant ce risque était consubstantiel à l’évolution du web dit social.

Pour en revenir aux interrogations sur ce qu’est vraiment un document. Je ne pense pas pour autant que ce soit la résultante d’une crise du support. Cette inquiétude a déjà été étudiée par les sciences de l’information et d’autres disciplines pour mettre en avant la nécessité de mieux distinguer les qualités documentaires. Il faut par exemple rappeler le fait qu’il n’y a pas de dématérialisation et montrer les formes documentaires qui demeurent. Ainsi, la plupart des données se trouvent dans des tableurs ou des bases ou des banques de données. On a besoin d’un renouveau des cultures documentaires et cela requiert des enjeux de formation au-delà des formations documentaires ou en archivistiques.

Au niveau pédagogique, je préconise en fait d’apprendre à faire justement des faux pour renforcer les compétences pour détecter les manipulations. Il reste que l’arrivée de générateur de textes et d’images avec les IA vont nous donner du fil à retordre. C’est autant angoissant que passionnant. C’est aussi ça cette ère de l’hyperdocumentation.

J.D. – Dans votre livre vous avez le souci de décrire l’histoire de l’indexation, de l’utilisation de métadonnées et des différents contextes dans lequel ils sont collectés. Cette histoire nous ramène à un risque historique majeur : celui d’un travestissement voire d’une trahison des logiques documentaires à cause des proximités qui existent dans les techniques de la documentation avec celles de la surveillance et du marketing, mais également celles de la propagande. Où s’arrête l’indexation, finalement, quand elle quitte les salles des bibliothèques et des centres de documentation?

O.L-D – Ce risque est effectivement ancien et traditionnel. On ne peut guère faire autrement que d’accepter le côté double de l’indexation et de constater que les moyens financiers seront souvent plus du côté des enjeux du marketing ou de la surveillance.

C’est au final autant un combat politique qu’un combat technique. Plusieurs pistes sont possibles au niveau législatif pour obliger à un meilleur respect de la gestion des données personnelles, mais également et surtout de développer des moyens pour obliger à une plus grande responsabilité dans l’usage des données et des algorithmes utilisés. La transparence des processus est difficile à construire y compris pour les institutions gouvernementales. Outre un travail de formation et de résistance des collectifs, je pense que la meilleure piste sera la prise de conscience des entreprises privées d’augmenter la transparence pour conserver la confiance des usagers. Mais pour cela, il faut augmenter les compétences et la conscience des citoyens pour exiger plus d’éthique et de confiance. Il reste aussi bien sûr la piste de l’émergence de nouveaux acteurs plus vertueux et les tentatives d’équilibrage par la démocratisation des méthodes de sous-veillance pour répondre aux abus de pouvoir des acteurs de la surveillance.

J.D. – Nos gadgets électroniques, qui sont fortement utiles au quotidien j’en conviens produisent de l’information 24/7. Cette hyperconnexion – et la communication (volontaire ou non) des détails entourant notre quotidien (nombre de pas effectué, nombre de calories brulées, etc.) – alimente les gigantesques bases de données des géants de l’industrie. Dans votre livre, vous utilisez l’expression « indexation des existences ». Les individus sont devenus aujourd’hui des corpus documentaires qui dépassent largement les informations que les gouvernements collectaient jadis sur sa population. Devant ce constat, un questionnement me vient à l’esprit : combien faut-il de champs de métadonnées pour qualifier un être humain ?

O.L-D – J’aborde un peu cette question dans l’ouvrage en faisant référence au roman de Robert Musil, l’homme sans qualités sous une forme un peu de boutade. Je pense que la question n’est finalement pas le nombre de métadonnées nécessaires pour documenter un humain, mais plutôt le nombre nécessaire pour l’identifier ou rendre son profil exploitable. Et force est de constater qu’il n’en faut pas tant que ça.  On pourrait même considérer qu’il n’en faudrait qu’une avec un système d’attribution d’un identifiant unique. C’est une logique bien connue de nos systèmes d’information avec nos notices d’autorité. Cela permet d’éviter le bazar et de vous faire bénéficier de droits. Mais inévitablement, cela interroge sur nos possibilités d’anonymat qui tendent à se réduire. Une problématique que j’avais traitée de façon décalée dans une nouvelle intitulée « la désindexée ».

J.D. – Une formule que vous employez m’a particulièrement marqué : dans l’indexation de nos existences, on est passé de LA FICHE à L’AFFICHE. L’action de rendre public, de montrer aux autres, est maintenant un geste quotidien exécuter par bon nombre de personnes sur les réseaux sociaux. Même le banal est devenu un élément communicable. La ligne entre le on-line et le off-line s’efface de plus en plus. Cette nouvelle identité numérique vient-elle modifier la façon de nous comprendre nous-mêmes en tant qu’individu singulier et en tant qu’individu en société?

O.L-D – Oui, j’ai volontairement utilisé ce jeu de mot, peu aisé à traduire en anglais d’ailleurs, pour montrer ce passage entre une réflexion entre « la publicité » d’un évènement et le fait qu’il faille au contraire rechercher l’attention des autres par une extériorisation de son « moi » dans des démarches plutôt éphémères. Si certaines personnes en ont fait leur métier en étant des influenceurs ou des hommes sandwichs du numérique, je préconise à l’inverse d’investir plutôt dans les démarches d’écritures de soi plus profitables à long terme.

Les mécanismes d’auto-documentation ne sont donc pas tous à rejeter. Il faut les inscrire dans des perspectives plus longues. Et c’est d’ailleurs une des leçons de l’hyperdocumentation de parvenir à sortir des logiques évènementielles court termiste. Robert Escarpit disait que le document était en quelque sorte un anti-èvènement. Je crois que si on veut reprendre le contrôle de l’hyperdocumentation, il s’agit de mieux saisir le rapport au temps et la manière d’interpréter et de comprendre les documents et données rassemblées dans des nouvelles formes de distance reading qui impliquerait cette dimension temporelle. On va avoir besoin de machines à interpréter le temps. Mais c’est assez logique tant HG Wells s’est parfois inspiré aussi de Paul Otlet dans sa conception encyclopédique. Les aspects fictionnels et imaginatifs font partie de cette histoire qui se joue et noue en ce moment.

J.D. – Avec les systèmes de reconnaissance faciale, une ligne a été franchie en matière d’indexation de nos vies. D’autant plus que cette information personnelle n’est pas collectée par des états, mais plutôt par des entreprises privées qui s’inscrivent dans un système juridique mondialisé. Devrait-on revoir notre législation en matière de protection de nos renseignements personnels? Sommes-nous devant la nécessité de développer une sorte d’éthique de l’indexation?

O.L-D – L’éthique est nécessaire, mais elle ne suffira pas puisqu’on sait que si la technologie existe, elle sera appliquée dans des cadres légales ou non. C’est comme pour la reconnaissance de type ADN, même si vous n’êtes pas fiché, il suffira que des personnes de votre famille le soient pour que vous soyez potentiellement identifié par le biais de croisements. On peut certes légiférer, mais cela va conduire à des systèmes encore plus opaques dans lesquels les grands groupes identifiés ou les états ne détiendront pas chez eux des informations personnelles sensibles, mais feront appel à des entreprises de consulting extérieur qui seront capables de les aider à prendre des décisions en manipulant des données jugées sensibles. Il est fort probable que des prêts vous soient refusés pour des raisons génétiques sans que ce soit clairement mentionné. Il suffira d’indiquer un refus système lié à une analyse algorithmique complexe.

Certes, on trouvera toujours des formes de résistance, mais force est de constater que nos capacités à résister sur ces aspects tendant à s’affaisser et elles le seront d’autant plus si les principaux discours de résistance sont portés par des conspirationnistes ou des extrémistes. La  biométrie sert déjà à l’identification dans les cantines scolaires, nul doute que ce n’est qu’un début tant il est à craindre que le refus de donner des données personnelles ne soit tellement source de contraintes qu’on finisse par céder. L’injonction dominante est désormais : « vous n’avez rien à craindre si vous n’avez rien à vous reprocher », phrase effectivement très inquiétante quand on sait l’instabilité de nos régimes politiques y compris démocratiques3.

Si on se place au niveau mondial, ces questions ne peuvent demeurer d’un point de vue législatif ou éthique que sur les plans nationaux. Je préconise plutôt des pistes supranationales en la matière, malheureusement la période est à un retour sur des souverainismes souvent rétrogrades qui sont assez paradoxalement assez incapables de répondre réellement à la puissance des entreprises multinationales.

J.D. – Finalement votre livre propose une réflexion intéressante sur la documentation personnelle des individus, celle pour soi (journaux intimes, photographies, collections,) et pour les autres. Vous posez des questions pertinentes, notamment sur notre héritage documentaire après la mort. Doit-on tout léguer? Qu’est-ce qui est pertinent pour nos proches? Est-ce que cette masse d’information sera consultée, si oui de quelle manière? Qui rédigera notre fiche descriptive, support de notre nécrologie ? Ma question pour vous est la suivante : selon vos recherches, pour quelles raisons documente-t-on nos vies? Quelles sont les motivations derrière cette quête de qualification et quantification de nous-mêmes?

O.L-D –  Je pense qu’il y a une volonté qui est déjà de prouver finalement son existence au moins à court terme. Ensuite, au niveau quantification, il s’agit de mieux se connaître et de pouvoir s’améliorer. On peut déplorer que cette recherche se fasse aussi dans des logiques de distinction, une forme du culte du Moi plutôt qu’une culture du soi.

La question de l’héritage est une question d’importance que j’avais évoqué dans un vieil article au sujet de notre double numérique, que j’avais qualifié de Kâ numérique, en référence au double bénéfique égyptien, qui doit être pensé au-delà de notre existence charnelle. Quelle image souhaite-t-on laisser à la postérité ?

Toutefois, je crains que cette question ne soit déjà envisagée par les courants transhumanistes qui pourraient y trouver les moyens de procéder à la création de bots qui reproduiraient nos principaux traits de pensée.

Au final, notre double numérique et son héritage risquent d’être plutôt gérés par Google et Facebook que par les archivistes et les bibliothécaires à moyen terme. À long terme, je suis persuadé que ce sera différent et qu’on n’aura besoin de ces « lecteurs de crâne de licorne » qu’évoque Haruki Murakami dans son livre, La Fin des temps.

Pour en savoir plus : https://www.istegroup.com/fr/produit/hyperdocumentation/

[1] Pomerantz 2015, p. 3, cité dans Le Deuff, Olivier (2022). Hyperdocumentation. ISTE Éditions, p. 71

[2] Ibid., p.139

[3] Ibid., p.140

 

Laisser un commentaire