• Disponibilité continue

    • La disponibilité continue est une méthodologie de conception qui fournit un accès en continu aux données et aux services applicatifs. Les applications métiers essentielles créées via cette méthodologie sont disponibles en permanence. Les composants d’une pile de services applicatifs sont intégrés au minimum dans une conception 2N, soit deux fois le nombre d’équipements (N) requis en parallèle des deux ensembles d’équipements activement utilisés. Les conceptions d’applications 2N tolèrent la perte d’un site, d’un serveur ou d’un service d’infrastructure sans nécessiter de mécanisme de basculement ou d’opérations de restauration. Cette approche repose sur une infrastructure actif/actif multisite, des brokers d’objets et une technologie avancée de virtualisation du stockage afin d’offrir un niveau de disponibilité du service plus élevé qu’auparavant, tout en réduisant les coûts et en simplifiant la gestion.

    • Qui utilise la disponibilité continue et pourquoi ?

      Les architectures et les processus de disponibilité continue sont utilisés par des entreprises clairvoyantes qui veulent garantir des niveaux exceptionnels de disponibilité de service pour leurs applications stratégiques. Deux facteurs sous-tendent cette migration vers des solutions de ce genre : D’une part, la demande croissante d’une disponibilité ininterrompue des applications métiers clés. En effet, les particuliers et les marchés s’attendent désormais à ce que les services soient accessibles à tout moment et en tout lieu, sans exception. Dans un tel contexte, les répercussions financières d’un arrêt, même bref, peuvent être graves.

      L’autre facteur réside dans les limites de l’approche conventionnelle du problème de disponibilité. Cette approche consiste à coupler des systèmes et des processus distincts en vue d’assurer la haute disponibilité et la récupération en cas de sinistre à l’aide de conceptions N+1. Selon l’approche traditionnelle, les applications stratégiques sont structurées à l’aide de conceptions N+1+1, c’est-à-dire avec une méthodologie de N équipements requis + un équipement de secours (+1, sur un même site) et la récupération en cas de sinistre (+1 supplémentaire sur le site principal et de sauvegarde). En général, étant donné que les équipements de secours sont passifs, une opération de basculement ou de restauration est nécessaire pour mettre l’équipement de secours en ligne, ce qui entraîne un arrêt de service inutile.

      Cette approche présente des inconvénients,

      notamment une complexité et des coûts excessifs, puisque les administrateurs déploient et gèrent des systèmes hétérogènes, mais aussi des topologies de disponibilité (haute disponibilité sur site et récupération en cas de sinistre inter-site) dans lesquelles les ressources de secours restent inutilisées, sauf en cas de besoin.

      Malgré les efforts consentis en matière de dépenses et de gestion, il faut néanmoins s’attendre à ce que les services subissent une période d’interruption onéreuse en cas d’incident majeur.

       

      Principe de fonctionnement de la disponibilité continue

      La disponibilité continue est permise par les avancées technologiques. En effet, il est désormais possible et économique de créer et de gérer des architectures actif/actif multisite dédiées aux applications métiers. Au lieu de garder en mode passif des ressources coûteuses, les topologies de disponibilité continue « étendent » efficacement les ressources actives sur au moins deux sites.

      Les principaux éléments d’une architecture de disponibilité continue sont :

      • Deux datacenters (ou plus) déployés en mode actif/actif, chacun d’eux étant équipé d’un ensemble complet d’infrastructures sans point unique de défaillance. Les sites doivent être suffisamment espacés pour ne pas subir tous les deux les conséquences d’un même incident majeur, tout en étant assez proches pour permettre des opérations de mise en miroir synchrone des données entre les sites. Selon la disposition régionale, la distance idéale entre les sites serait de 40 à 100 km.
      • Une couche de virtualisation avancée des données distribuées, à l’instar du système VPLEX Metro d’EMC, afin d’assurer la cohérence et la mise en miroir synchrone des données entre les sites.
      • Des applications métiers conçues pour être exécutées en mode de disponibilité continue via un clustering scale-out avec des solutions de base de données telles que Oracle RAC ou des systèmes de fichiers en cluster VMware. Oracle RAC et le système de fichiers VMFS de VMware jouent le rôle de brokers d’objets pour permettre une mise à jour simultanée et cohérente des données en lecture/écriture sur les deux sites.
      • Un mécanisme de distribution des transactions qui permet d’équilibrer les charges transactionnelles entre les sites actif/actif dans des conditions normales de fonctionnement, ainsi que d’acheminer l’ensemble du trafic vers le site opérationnel en cas d’incident ou d’opération de maintenance sur l’autre site.

      Avantages

      Les applications métiers créées sur la base d’une conception de disponibilité continue sont disponibles en permanence et tolèrent la perte d’un service d’infrastructure, d’un serveur d’application ou de base de données, d’une baie de stockage, ou encore la perte totale d’un site. La gestion administrative et opérationnelle est simplifiée, car les solutions classiques de haute disponibilité sur site et de récupération en cas de sinistre inter-site sont combinées au sein d’une architecture de disponibilité continue commune. La maintenance est simplifiée et sans interruption, car un site entier peut être mis hors ligne pour les activités de maintenance. En utilisant des conceptions de disponibilité continue, l’entreprise élimine la plupart des causes d’arrêt de service courantes tout en améliorant la disponibilité des services applicatifs.

    • En savoir plus