Comment optimiser la fiabilité d'Amazon S3 via des choix judicieux
Les DSI qui passent à AWS pourraient avoir des préoccupations en matière de protection de leurs données. Cependant, grâce à la réplication entre les régions et le versioning, les utilisateurs expérimentés sur S3 bénéficient d'une fiabilité accrue des données.
La résilience des données est essentielle à la continuité des activités de l’entreprise et sa conformité réglementaire. Le passage d'une informatique on-premise au cloud public suscite de nouvelles inquiétudes quant à la fiabilité et à la disponibilité des données.
Les fournisseurs de cloud public, tels qu’Amazon Web Services, intègrent régulièrement de nouvelles fonctions de résilience à leurs services de stockage par défaut. Les services informatiques qui stockent des données dans des buckets Amazon S3 devraient mettre en œuvre des mesures pour améliorer encore cette fiabilité. Passez en revue les fonctionnalités déjà intégrées dans AWS, telles que la réplication et les niveaux de disponibilité. Ensuite, envisagez des stratégies qui maximisent la résilience des données, ce qui inclut les sauvegardes.
Et n'oubliez pas de protéger les données contre les utilisateurs bien intentionnés. Le niveau de fiabilité d'Amazon S3 n'est finalement qu'au niveau de votre pratique IT la plus faible.
Disponibilité et résilience du stockage S3 de base
Amazon S3 est le service de stockage d'objets phare d'AWS, ce qui signifie que le niveau de fiabilité par défaut de S3 correspond aux exigences des DSI pour leurs workloads les plus courantes.
La résilience des données offerte en natif par Amazon S3 s’appuie sur la réplication. AWS réplique un bucket S3 sur des périphériques de stockage dans au moins trois zones de disponibilité sur une région sélectionnée. Chaque zone de disponibilité est physiquement séparée, ce qui permet d'assurer la fiabilité de S3 en cas de défaillance des dispositifs de stockage ou de problèmes à l'échelle de l'installation, comme un incendie. Ce niveau de disponibilité par défaut est appliqué aux classes de stockage S3 Standard, S3 Standard Infrequent Access (IA) et S3 Archival Glacier. La classe de stockage S3 One Zone-IA offre un niveau de fiabilité inférieur car elle ne réplique les objets stockés qu’une seule fois et donc sur une seule zone de disponibilité.
AWS définit la disponibilité d'Amazon S3 via les niveaux de service (SLA) proposés à ses clients :
- S3 Stockage standard : disponibilité de 99,99 %
- S3 Stockage standard IA : disponibilité de 99,9 %
- S3 One Zone-IA storage : disponibilité de 99,5 %
Les clients AWS reçoivent un crédit de stockage si le pourcentage de disponibilité est inférieur à l'engagement minimum correspondant au SLA de la classe de bucket S3.
AWS revendique également des niveaux de durabilité pour les objets dans le cadre des caractéristiques de fiabilité natives de S3. La durabilité indique la perte annuelle moyenne d'objets. Selon le fournisseur de services cloud, Amazon S3 Standard, S3 Standard-IA, S3 One Zone-IA et S3 Glacier offrent tous un taux de durabilité de 99,99999999999 % pour les objets stockés sur une année donnée.
Améliorer la fiabilité du S3
Les niveaux de fiabilité standards de S3 peuvent répondre aux besoins d'une entreprise sans nécessiter d’interventions supplémentaires. Dans les cas où les données ou les exigences de l'entreprise exigent un niveau de résilience des données plus élevé, les DSI peuvent appliquer des stratégies qui vont renforcer la sécurité d’un bucket Amazon S3.
Mettre à niveau le service. Les services S3 sont disponibles dans plusieurs classes avec les différents niveaux de disponibilité définis ci-dessus. L’écart entre 99,9 % et 99,99 % de temps de disponibilité représente près de 40 minutes de disponibilité par mois. En règle générale, utilisez le stockage Standard-IA pour les workloads les moins prioritaires et qui peuvent tolérer une disponibilité moindre. Si les exigences relatives à une workload changent, évaluez le passage à une classe de service avec une meilleure disponibilité.
Faites des copies de données. Le moyen le plus largement accepté d'améliorer la protection des données est de faire davantage de copies des données dans un plus grand nombre d'endroits. AWS fournit des services natifs de sauvegarde et de réplication pour atteindre facilement cet objectif.
Le service AWS Backup centralise et automatise le processus de sauvegarde et assure la conservation des données à travers tous ses services cloud, tels qu’Amazon Elastic File System, DynamoDB, Elastic Block Store et Relational Database Service (RDS). Les politiques de sauvegarde sont régies par des stratégies, avec une surveillance et des rapports disponibles sur les activités de sauvegarde.
Utilisez la réplication au lieu de la sauvegarde pour obtenir des protections similaires pour les données qui sont généralement accessibles et utilisées rapidement. Les buckets S3 sont répliqués par défaut dans toutes les zones de disponibilité de la même région, à l'exception de la classe One Zone. Cependant, S3 prend en charge la réplication interrégionale (Cross-Region Replication/CRR), dans laquelle les buckets S3 sont copiés de manière asynchrone dans différentes régions.
Le CRR peut satisfaire aux exigences métier ou de conformité qui précisent à quelle distance les copies de données doivent être stockées. Il permet également de servir les utilisateurs dans des régions géographiquement diversifiées avec des ensembles de données répliqués.
Utilisez le versioning. Les utilisateurs représentent une menace bien plus grande pour les données de l'entreprise qu’une défaillance de l'infrastructure ou un désastre physique. Un utilisateur peut, par exemple, écraser ou supprimer un objet dans un bucket S3 par inadvertance, ce qui peut avoir des effets dévastateurs. Plutôt que de passer par une restauration de sauvegarde fastidieuse et souvent délicate afin de récupérer des données supprimées par l'utilisateur, envisagez le versioning S3. Ce processus préserve chaque version de chaque objet dans un bucket S3 et tient compte des modifications chaque fois qu'une opération PUT, COPY, POST ou DELETE est effectuée.
Les opérations GET par défaut renvoient la dernière version de l'objet S3, mais l'administrateur peut récupérer les anciennes versions protégées à la demande. Utilisez les règles du cycle de vie des données pour supprimer les versions inutiles afin que cette pratique ne gonfle pas les coûts de stockage et les efforts liés à la gestion de la conservation des données.
La DSI a trois obligations en matière de protection des données, qui s'appliquent à la fiabilité d'Amazon S3, ainsi qu'à tout autre mécanisme de stockage :
- Le niveau de protection doit correspondre aux besoins du workload et de l'entreprise. Surinvestir dans la résilience du stockage est coûteux mais sous-investir peut coûter beaucoup plus cher.
- Tester chacune des stratégies de protection des données mise en place. Ne vous attendez pas à ce que les politiques de sauvegarde et leur automatisation vous sauvent la mise tant qu'elles n'auront pas fait la preuve de leur efficacité.
- Examiner et mettre à jour périodiquement les stratégies de protection des données. La protection qui fonctionne aujourd'hui pourrait être inadéquate demain.