JUILLET 2020 – [Blog] Les promesses d’efficacité du stockage à l’épreuve des utilisateurs

L'efficacité du stockage
La fin d’un mythe Les baies flash ayant dépassé le stade de l’adoption en entreprise, leur exploitation a favorisé chez l’acheteur une grande prudence vis-à-vis des performances affichées par les constructeurs, en particulier quant aux taux de réduction de la donnée obtenus. Aujourd’hui, l’efficacité d’un stockage se mesure à l’aune du contexte de l’entreprise, de la volumétrie et de la nature de la donnée qu’elle détient, bien plus qu’au regard de la performance des algorithmes.

Rupture technologique et notion d’efficacité

Avec l’apparition et le développement du stockage flash, les entreprises ont radicalement modifié leurs pratiques en management de la donnée. La disparition des problématiques de vitesse liées à la mécanique des disques durs et le rôle clé de la mémoire persistante du flash offrent des conditions idéales pour toutes les applications nécessitant de la performance fiable et une latence réduite au maximum. Les disques SSD ont en outre répondu à d’autres contraintes liées à l’exploitation des disques durs mécaniques, comme le bruit, la consommation électrique, la production de chaleur.

Plus chère, la mémoire SSD s’est longtemps maintenue à des tarifs affichant un rapport de 10 : 1. Même si l’augmentation de la production de SSD a contribué à faire diminuer son prix d’achat, une nette différence persiste vis-à-vis des disques mécaniques. Pour rendre acceptable cette différence de prix, les constructeurs de baies ont travaillé sur des solutions visant à réduire l’empreinte économique de la mémoire flash. Concrètement, il s’agit de pouvoir écrire moins, donc de consommer moins de stockage. C’est ce que l’on appelle l’efficacité du stockage.

L’efficacité du stockage doit être entendue comme l’art et la manière d’observer ce que l’on s’apprête à écrire. L’objectif étant de ne jamais écrire deux fois la même donnée, le calcul de la valeur d’un bloc de donnée permet d’en comparer le poids avec les signatures déjà enregistrées. C’est une première étape cruciale en entreprise, où les données redondantes sont monnaie courante, en bureautique par exemple. À ce calcul appelé checksum ou somme de contrôle, ou encore empreinte, s’ajoutent des algorithmes de compression.

L’ensemble de ces techniques d’écriture permet de rééquilibrer le ratio et tend à porter le coût de la mémoire flash à un seuil acceptable, sachant qu’elle contribue également à diminuer l’empreinte au sol et la consommation énergétique, ce qui de facto impacte en positif le montant total de la facture d’un hébergeur.

Course à l’échalote et méfiance des acheteurs

Les constructeurs de baies flash se sont alors lancés dans une espèce de course à l’efficacité du stockage flash, traduisant les résultats obtenus en laboratoire en véritables arguments de vente. Affichant des taux d’occupation des ressources divisés par 10, 20 voire 50 pour certains, l’emballement s’est conjugué à la croyance volontaire des entreprises d’accéder à de la haute performance à moindre coût. Le mythe de l’efficacité du stockage flash était né.

Or valeurs en laboratoire et valeurs en production ne sont pas comparables. Un taux d’efficacité réelle du stockage de 2, de 3 ou de 4 est autrement plus proche de la réalité. Ainsi, une baie capable de stocker 100 sur 25 relève déjà d’un résultat fort satisfaisant.

Les intégrateurs ont évidemment été les premiers à se méfier de ces résultats miraculeux. Ils ont largement contribué d’une part à protéger les entreprises de lourdes déceptions et d’autre part à faire entrer aux contrats un engagement fort des constructeurs sur un taux réel d’efficacité. Si l’extravagance des résultats n’a aujourd’hui plus cours, l’on assiste en revanche à un rebond de prudence des constructeurs, lesquels acceptent de s’engager certes, mais sur des périodes de courte durée et sur des éléments à stocker intangibles. Or c’est bien sur la volumétrie de la donnée, son cycle de vie et sa nature que tout l’enjeu se porte.

L’enjeu majeur de la volumétrie et de la nature de la donnée

Pour déterminer la baie flash la plus adaptée aux besoins d’une entreprise et compte tenu de l’impact commercial sous-jacent, le client doit transmettre avec précision le volume de données à stocker, ainsi que leur nature. Or l’exercice est loin d’être évident et peut contribuer, en cas d’erreur, à rendre l’engagement (sur l’efficacité) caduc.

Les intégrateurs s’efforceront de vérifier la validité des informations transmises, quand ils y sont autorisés. Il en va de l’intérêt de l’entreprise de permettre la réalisation d’un audit sérieux, ne serait-ce que parce que le taux de réduction n’est pas de la même efficacité selon la nature des données. Le jpeg par exemple étant déjà compressé, ce format échappe aux algorithmes de compression et de déduplication. Certaines industries ou certains services exploitant massivement les fichiers vidéo, image et son ne pourront pas espérer obtenir plus qu’un ratio de 1:1. En revanche, les machines virtuelles présentent beaucoup d’intérêt sur du flash. 100 postes de travail virtualisés ont de très nombreux points communs et permettent d’obtenir de forts taux de réduction. La bureautique offre également un bon ratio, quand les bases de données affichent, elles, une grande variabilité en fonction de leur conception, tout comme les données issues des capteurs.

Il faut donc pouvoir mesurer avec des outils adaptés la déduplicabilité des données et leurs volumétries pour garantir une baie de stockage flash conforme aux besoins et prendre l’engagement associé. Ce travail d’audit dépend pour beaucoup de l’expérience des intégrateurs, qui auront développé en interne solutions et méthodes pour y parvenir avec précision.

Aujourd’hui, un certain lissage s’opère et les constructeurs tendent à obtenir des résultats équivalents en termes de réduction d’écriture de la donnée. In fine, l’efficacité du stockage flash dépendra beaucoup plus du contexte de l’entreprise que de la performance des algorithmes. Les éventuelles technologies de rupture porteront sur de nouveaux types de mémoire, persistantes, se rapprochant des capacités de la mémoire vive et toujours moins sensibles aux environnements, avec pour objectif une hyper performance ne laissant pas de place aux notions de réduction.

Partagez cette actualité

Plus d'actualités Stordata