Congrès

Une architecture distribuée : la puissance au service de la GID ou un prétexte pour s’interroger sur nos pratiques et notre efficacité

Dans le cadre du projet Reporteurs étudiants 2018, nos reporteurs ont eu, entre autres, à rédiger des comptes rendus de conférences. Ce compte rendu a été rédigé par Alexandre Soucy.

Conférence : Une architecture distribuée : la puissance au service de la GID ou un prétexte pour s’interroger sur nos pratiques et notre efficacité

Conférenciers : Christian Bolduc et François Breton, Université Laval.

L’Université Laval est une institution d’envergure, accueillant entre ses murs environ 43 000 étudiants et presque 10 000 employés. Elle repose sur une structure décentralisée de 17 facultés et de plus de 60 départements, écoles et instituts. Cette population en soi génère une quantité significative d’information qu’il faut gérer avec l’efficacité et la sécurité auxquelles s’attendent les dirigeants, et la foule d’utilisateurs. Ainsi, le flux documentaire quotidien doit être pris en charge par des équipes qualifiées, répondant aux exigences archivistiques et aux attentes de la communauté universitaire. La gestion intégrée des documents y est à la fois essentielle et inévitable, l’assaut de la technologie n’en diminuant nullement l’importance. À la base, le système de gestion intégrée doit s’assurer que les outils archivistiques fonctionnent efficacement, même s’ils ne sont pas complètement maîtrisés par le personnel en place; ils doivent être sécuritaires et « plaire » aux usagers.

En ce qui concerne le projet de l’Université Laval, soit un système de GID performant et sécuritaire à l’ère du numérique, certains enjeux furent inévitables. D’abord, les nombreuses facultés/unités gèrent localement des centaines de dépôts qu’il était préférable de réunir dans une voûte institutionnelle unique. De plus, il fallait s’assurer que les documents soient accessibles en tout temps, et ce, dans des délais raisonnables. L’archiviste réfléchit puis détermine le cœur, en harmonie avec ses besoins archivistiques; pour L’Université Laval, Constellio, plateforme assez intuitive, fût sélectionné pour accueillir l’information. Alors voilà, le logiciel est choisi, il est beau, il est bon, c’est fait…

En vérité, c’est loin d’être la fin des réflexions et le début du déploiement; car, sous ce système, il y a bien des ramifications logicielles et bien des défis à considérer, à comprendre, à organiser, à « tester ». Au bout du compte, pour faciliter l’implantation auprès des unités, il faut être convaincu et rassurer sur plusieurs choses, comme la solidité globale du projet, la stabilité de ses composantes ou la sécurité du système; même si on se croit convaincu d’avoir la GID parfaite, la réflexion n’est pas terminée et l’expertise d’un professionnel de l’informatique est primordiale si l’on souhaite concocter une structure dans laquelle chaque composante s’articulera de manière optimale, et ce, dans l’évidence de notre monde branché.

Par exemple, il faut tout imaginer, tous les scénarios possibles, allant du bogue à l’incendie, du virus ou de la défaillance logicielle à la perte, moins probable, du campus lui-même; car un tel projet s’inscrit dans une optique où l’information numérique doit perdurer. Pour le projet, l’équipe de l’Université Laval s’est donc tournée vers une architecture distribuée où l’information est dupliquée et demeure accessible en cas d’arrêt de service ou de panne.

Ce genre de structure est une chose, mais, encore, ce n’est pas tout : il faut bien planifier les accès, s’assurer de réduire la surface d’attaque de l’infrastructure (isoler l’infrastructure à l’intérieur d’un réseau virtuel:VLAN) et convenir, par exemple, d’une protection antivirus performante (les usagers ayant accès aux informations en tous lieux et sur une multitude d’appareils). Autre enjeu important, et impossible à négliger, c’est l’interopérabilité : l’archiviste n’est pas toujours armé pour faire face à cette réalité technique. En fait, Constellio est au centre de la structure, c’est la voûte institutionnelle, c’est l’archiviste, mais le logiciel ne peut pas fonctionner en silo, il doit absolument interagir avec d’autres systèmes qui, malheureusement, ont souvent des logiques qui leur sont propres. L’un des points intéressants de Constellio fut donc qu’il permet l’externalisation d’APIs; en d’autres mots, son interface utilisateur n’est qu’un moyen pour interagir avec la voûte.

Une fois les ramifications gravitant autour de Constellio mises en place, il faut soumettre l’environnement complet à une batterie de tests dans le but d’observer sa fonctionnalité et de déceler, éventuellement, les failles à corriger avant de procéder au déploiement. Pour ces tests dits de charges, on doit, par exemple, tenir compte du nombre potentiel d’utilisateurs qui utilisera quotidiennement le système (dans le cas de l’Université Laval, on parle d’environ 3 000 utilisateurs dans le système, dont 1 000 pourraient être actifs au même moment, sans oublier qu’il y aura encore plus d’utilisateurs interagissant avec Constellio à l’aide des APIs).  On doit aussi insérer du contenu (5,4M de document anglais de Wikipédia furent chargés et indexés), créer la communauté virtuelle puis programmer les scénarios qui seront effectués par ces utilisateurs virtuels (par exemple, des actions visant à ajouter ou à supprimer un document, à se connecter, à se déconnecter, etc.). L’idée est de nourrir le système et de le confronter à un environnement semblable à celui qu’il devra gérer au quotidien, toujours dans le but de garantir les chances de succès lors de l’implantation. Pour optimiser l’apport des tests de charge, il ne faut surtout pas oublier de mettre en place des outils qui permettront de mesurer les performances du système, comme le temps de réponse lors d’une requête ou toute autre donnée en lien avec la récupération de celui.

Tester la structure est essentiel. Comme on le dit souvent si bien, il est préférable d’être préventif que curatif… et pour ce faire, il ne faut pas hésiter à prévoir le pire en s’attaquant littéralement à la résilience du système par des simulations de pannes, des pertes de réseaux, des surcharges volontaires, des manœuvres brutales comme le débranchement d’un ou de plusieurs fils, etc. En menant ainsi la structure aux limites de sa tolérance, on peut non seulement déterminer son point de rupture, mais observer, éventuellement, la façon dont elle se comporte en de telles situations et comment elle récupère, à quelle vitesse (encore ici, il est important de mesurer, à l’aide d’outils logiciels, les réactions et agissements du système). Globalement, le jour où le produit sortira du labo, solidifié par l’expérience et les ajustements, il sera en mesure d’absorber la réalité sans paniques ni tremblements désastreux.

En conclusion, toute cette structure est complexe, et chaque détail technique demande attention.  Mais l’essentiel, ou le gage de succès demeure le travail d’équipe. L’archiviste ne peut pas assurer le développement d’une telle structure sans la complicité et l’expertise d’un professionnel de l’informatique; c’est d’autant plus vrai dans une institution gérant un volume d’information important. Si la gestion documentaire doit respecter les outils de la profession, l’apport d’une discipline comme l’informatique permet d’optimiser la structure et d’en assurer la performance et la flexibilité exigées par la direction et les utilisateurs modernes. C’est la combinaison des savoirs et des compétences qui mènent à la création et à la réalisation d’un programme de gestion intégrée des documents efficace, sécuritaire et adaptée à sa réalité.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s