SoS #1 – Pourquoi l’architecture compte : choisir la bonne dès le départ

science of storage - steve & archie

Comme le dit Archie dans le premier épisode de The Science of Storage, en matière de stockage, l’architecture est essentielle. Parce qu’il est pratiquement impossible de monter en charge lorsque l’on choisit initialement une configuration basique, les décisions que prennent nos clients quant à leurs déploiements ont généralement des conséquences à long terme.

C’est pourquoi nous conseillons de choisir une base architecturale construite pour durer. Il peut être tentant de choisir à l’origine une architecture bon marché pour mettre vos contrôleurs en clusters, par exemple un modèle à double contrôleur. Mais lorsqu’un client souhaite une capacité scale-out, il s’apercevra qu’il ne lui faudra pas longtemps pour atteindre la limite des performances possibles du fait du goulot d’étranglement qui se produit lorsque tous les volumes de ressources sont affectés au même contrôleur. Et cela arrive fréquemment lorsqu’on travaille avec des équipes de développement qui consomment rapidement toute la capacité de performance lors des cycles de développement ou de test.

Les architectures à double contrôleur étaient fréquentes dans les années 90. Mais avec la croissance exponentielle des données que nous connaissons, il est crucial de disposer d’un stockage capable de s’adapter. C’est là où l’architecture multicontrôleur symétrique, telle qu’on la trouve sur les baies 100% flash XtremIO de Dell EMC, peut s’avérer extrêmement précieuse. Dans ce modèle, en fonctionnement normal, tous les contrôleurs servent activement les E/Set traitent les services de données, chaque contrôleur prenant une part égale de la charge. En cas de défaillance de l’un des contrôleurs, les autres continuent à gérer toutes les E/S, sans la moindre perte de service. Tous les contrôleurs restants gèrent activement les requêtes des clients, le système évoluant linéairement afin qu’une éventuelle dégradation des performances soit proportionnelle à la taille du cluster. Par exemple, avec 8 contrôleurs, la défaillance de l’un d’entre eux se traduira par une baisse maximum de 12,5% des performances.

Cette conception intelligente vise une disponibilité maximum à 99,999% avec un cluster capable d’évoluer de manière linéaire, plutôt que de sacrifier 50% de la performance d’un contrôleur pour maintenir ce niveau de performance pendant une fenêtre potentielle d’interruption de service de 0.001%.

Il est important de se rappeler que la plupart des fournisseurs ne disposent pas de la sophistication technique nécessaire pour créer ce genre d’architecture. C’est là la différence avec Dell EMC : assurer que lorsque le client veut monter en charge, il est en mesure d’obtenir une performance de niveau supérieur et garantir que son architecture de stockage permet d’atteindre les résultats critiques auxquels il aspire pour son entreprise.

L’épisode 1 de The Science of Storage peut aider nos clients à comprendre ce qui constitue la différence de Dell EMC dans la conception de solutions de stockage pérennes. Nos produits s’adressent à tous ceux qui recherchent une solution efficace, évolutive et peu coûteuse pour répondre à leurs besoins de stockage.

Regardez l’épisode dès maintenant et venez en parler sur les réseaux sociaux avec le hashtag #scienceofstorage.

est le Partenaire Technologie de Science of Storage

About the Author: Dell Technologies