Vanité renvoie à ce qui est illusoire, inefficient, vide, vain ; et qualifie aussi une attitude supérieure, prétentieuse, vaniteuse. Les deux concepts de vide et de trop plein semblent à première vue contradictoires, mais comme les extrêmes se rejoignent, on s’y retrouve : quand on a tout, on n’a rien.
Le stockage numérique, par exemple, fraye avec la vanité, dans ses deux acceptions.
D’un côté, il est vain de croire que le Stockage Numérique Illimité Facile (SNIF) répond et répondra demain aux besoins de conservation et d’accès à l’information des utilisateurs. Les capacités de stockage et les moteurs de recherche font merveille mais c’est la pertinence, la qualité et la fiabilité des données qui est en cause, au moment de leur production et au cours du temps. Conserver n’a d’intérêt que pour les utilisateurs potentiels. Mettre dix fois plus de légumes de mauvaise qualité, non lavés, non épluchés et sans assaisonnement, dans un robot ménager top niveau n’a jamais produit de la bonne soupe !
De l’autre côté, il est vaniteux de faire croire que le Cloud computing est, dans l’absolu, un progrès technologique, économique et sociétal pour les individus et pour les entreprises ou les institutions. Le progrès technologique est indéniable ; qui songerait à l’ignorer ou à refuser les avantages de la sous-traitance aux prestataires spécialisés, notamment sur les aspects d’infrastructure et d’équipements ? Mais la technologie n’a de sens que relativement au progrès économique et social.
Or, contrairement à ce que beaucoup croient encore, le stockage numérique coûte cher. Les analyses de Barclay T Blair et de David Rosenthal à partir d’une étude IDC de 2010, rapportées par Stephen Clarke dans le billet d’un groupe LinkedIn, mettent notamment en évidence que le coût d’un Gigaoctet de disque est passé de 9,14 $ en 2000 à 0,08 $ en 2010 (100 fois moins) tandis que les dépenses de stockage numérique n’ont pas baissé et qu’elles pourraient même augmenter dès lors que l’inflation des volumes de données stockées (57% par an) surpasse la réduction des coûts des supports.
Il faut par ailleurs souligner que se débarrasser de ses données dans un outil au seul motif de sa performance technique, en les abandonnant à leur triste sort ou aux nombreux « ré-utilisateurs » de données, relève à la fois de l’hypocrisie et de l’irresponsabilité (responsable et coupable…).
En résumé :
- on externalise l’infobésité et on est rassuré de voir dans le miroir une silhouette svelte et élégante alors que s’entassent derrière le miroir boules de graisse et crasse desséchée ;
- on multiplie les risques en se débarrassant sur des serveurs distants (loin des yeux, loin du cœur) de données souvent confidentielles et dont la protection inclut la destruction à échéance de leur utilité.
- on travaille plus pour financer l’inutile en réchauffant la planète par une consommation énergétique non justifiée. Quel progrès !!!
De tout cela pourrait bien ne subsister un jour, devant le constat d’échec d’une mémoire maîtrisée, raisonnable et humaine, qu’une onomatopée étouffée : snif…
La question n’est pas l’accroissement des données en soi mais l’enflure exponentielle des volumes inutiles et non gérés. Cela fait penser à la fable de La Fontaine « La Grenouille qui veut se faire aussi grosse que le Bœuf », avec le serveur dans le rôle de la grenouille et la mémoire humaine dans le rôle du bœuf. On connait la fin de l’histoire : « La chétive pécore s’enfla si bien qu’elle creva. » et sa morale : « Le monde est plein de gens qui ne sont pas plus sages ». Sagesse versus vanité.
Heureusement, pour ceux qui veulent bien en prendre conscience, la gouvernance de l’information et l’archivage ne sont pas tout à fait de vains mots.
Cet article devrait figurer en bonne place dans les publications sur le Green IT (very well), qui pourrait commencer par se poser la question de « l’enflure exponentielle de données inutiles » avant de se lancer dans des réflexions (vaines ?) sur la réutilisation de l’énergie des data centers…