Skip to Content
Dismiss
Innovation
Une vision de l’IA pour tous

Une base unifiée et automatisée pour transformer les données en intelligence à grande échelle.

En savoir plus
Dismiss
Du 16 au 18 juin, Las Vegas
Pure//Accelerate® 2026

Découvrez comment exploiter la véritable valeur de vos données. 

S’inscrire maintenant
Dismiss
Rapport Gartner® Magic Quadrant™ 2025
En tête dans les catégories Exécution et Vision

Everpure s’est classé parmi les leaders dans le Gartner® Magic Quadrant™ 2025 pour les plateformes de stockage d’entreprise et se positionne en tête dans les catégories Exécution et Vision.

Obtenir le rapport

Qu’est-ce que le stockage persistant ?

Lorsque les conteneurs redémarrent, les applications d’entreprise perdent des données critiques, sauf si vous avez correctement mis en œuvre un stockage persistant. Cette exigence fondamentale en matière d’infrastructure détermine si vos applications « stateful » maintiennent l’intégrité des données ou subissent des pertes catastrophiques pendant les opérations de routine.

Le stockage persistant est un mécanisme de stockage de données qui conserve les informations au-delà du cycle de vie des applications, des conteneurs ou des redémarrages du système. Contrairement au stockage éphémère qui disparaît lorsqu’un conteneur se termine, le stockage persistant garantit la survie des bases de données, des systèmes de fichiers et de l’état des applications, indépendamment des changements d’infrastructure. Pour les organisations qui exécutent des charges de travail Kubernetes, cela signifie que PersistentVolumes conserve les données même lorsque des pods sont créés, détruits et reprogrammés entre les clusters. 

Le défi n’est pas seulement de mettre en œuvre un stockage persistant, mais aussi de le faire efficacement à l’échelle de l’entreprise. Les approches traditionnelles utilisant un stockage hiérarchisé et des systèmes sur disque créent une complexité inutile tout en augmentant les coûts. Les architectures 100 % flash modernes offrent de meilleurs avantages économiques que la persistance sur disque traditionnel, en particulier lorsque la majorité des données supposées « froides » sont consultées régulièrement.

Ce guide examine le stockage persistant du point de vue de la mise en œuvre technique et de la stratégie d’entreprise. Vous découvrirez comment Kubernetes gère la persistance via StorageClasses et PersistentVolumeClaims, pourquoi les hypothèses de stockage traditionnelles ne s’appliquent plus et comment concevoir un stockage persistant qui évolue sans migration ni cycles d’actualisation.

L’évolution du stockage persistant

Autrefois, les serveurs physiques garantissaient un accès permanent aux disques locaux, un luxe qui s’est éteint grâce à la virtualisation et à la conteneurisation. Ce changement a radicalement changé la façon dont les applications gèrent la persistance des données.

La virtualisation a introduit des réseaux de stockage (SAN), permettant aux machines virtuelles de migrer entre les hôtes tout en maintenant l’accès aux données. Cela fonctionnait pour les applications monolithiques, mais créait des goulets d’étranglement lorsque les organisations devaient évoluer rapidement.

Les plateformes d’orchestration de conteneurs comme Kubernetes ont à nouveau transformé la persistance grâce à l’abstraction. Au lieu de gérer directement les LUN ou les montages NFS, les développeurs demandent un stockage via des réclamations de volume persistant qui se lient automatiquement aux volumes persistants disponibles. Cette abstraction permet la portabilité, mais pose de nouveaux défis : garantir la cohérence des performances, gérer efficacement les classes de stockage et éviter la perte de données pendant les migrations de pods.

Le passage aux microservices amplifie ces défis. Les architectures modernes nécessitent un stockage permanent pour des dizaines de services stateful, chacun avec des exigences de performance différentes. Le stockage traditionnel à plusieurs niveaux qui sépare les données « chaudes » et « froides » s’avère inefficace lorsque les schémas d’accès changent constamment.

Fonctionnement du stockage persistant dans une infrastructure moderne

Le stockage persistant dans Kubernetes fonctionne via une couche d’abstraction qui sépare l’allocation du stockage de la consommation. Cette architecture permet aux applications de demander un stockage sans connaître les détails de l’implémentation.

Architecture de stockage persistant Kubernetes

Le sous-système PersistentVolume (PV) gère les ressources de stockage indépendamment des cycles de vie des pods. Lorsqu’un pod a besoin d’un stockage, il crée un PVC (PersistentVolumeClaim) qui spécifie la capacité, le mode d’accès et les exigences de classe de stockage. Kubernetes fait ensuite correspondre cette revendication à un volume persistant disponible ou en provisionne un dynamiquement par l’intermédiaire du fournisseur de stockage configuré.

Cette liaison est permanente : une fois qu’un PVC se lie à une PV, cette relation persiste jusqu’à sa suppression explicite. Même si le pod plante ou migre vers un autre nœud, les données restent intactes et accessibles. Le pilote de l’interface de stockage en conteneurs (CSI) du fournisseur de stockage gère la connexion et le détachement réels des volumes sur les nœuds.

Classes de stockage et mise en service dynamique

Les classes de stockage définissent différents niveaux de stockage avec des caractéristiques de performance spécifiques. Plutôt que de précréer des volumes, les administrateurs configurent des StorageClasses qui provisionnent automatiquement le stockage lorsque les applications le demandent. Une entreprise typique peut définir :

  • « fast-ssd » pour les bases de données nécessitant des IOPS élevées
  • « standard » pour les charges de travail générales
  • « archive » pour une conservation à long terme

Le provisioning dynamique élimine le flux de travail traditionnel où les administrateurs créent manuellement des volumes pour chaque application. Lorsque les développeurs déploient des applications « stateful » avec des PVC faisant référence à une StorageClass, le système de stockage crée automatiquement des volumes de taille appropriée avec des caractéristiques de performance correctes. Cette automatisation réduit le temps de mise en service de plusieurs jours à quelques secondes.

Modes d’accès et politiques de récupération

Les volumes persistants prennent en charge trois modes d’accès :

  • ReadWriteOnce (RWO) : Volume monté en lecture-écriture par un seul nœud
  • Lecture seuleMany (ROX) : Volume monté en lecture seule par plusieurs nœuds
  • ReadWriteMany (RWX) : Volume monté en lecture-écriture par plusieurs nœuds

La politique de récupération détermine ce qui se passe lorsqu’un PVC est supprimé. La fonction « Supprimer » supprime à la fois le stockage PV et le stockage sous-jacent, tandis que la fonction « Conserver » conserve les données pour un nettoyage manuel. La compréhension de ces politiques évite la perte accidentelle de données.

Stockage persistant et stockage éphémère

La distinction entre le stockage persistant et le stockage éphémère influence les décisions d’architecture des applications. Une mauvaise compréhension de leurs caractéristiques entraîne une perte de données, des problèmes de performance et des coûts inutiles.

Caractéristiques

Stockage persistant

Stockage éphémère

Cycle de vie des données

Survit aux redémarrages de pods et aux défaillances de nœud

Supprimé à la fin du pod

Performance

IOPS constantes, latence réseau

IOPS variable, latence locale

Coût

0,10 à 0,20 $/Go/mois en général

Inclus dans le calcul

Cas d'utilisation

Bases de données, stockage de fichiers, état des applications

Cache, fichiers temporaires, création d’artefacts

Exigences de sauvegarde

Essentiel à la continuité des opérations

Non requis

Slide

Le stockage éphémère excelle pour les données temporaires qui peuvent être régénérées, les couches d’images de conteneurs, les artefacts de création et les fichiers de traitement temporaires. L’utilisation du stockage éphémère pour ces charges de travail réduit les coûts et la complexité tout en améliorant les performances grâce à l’accès aux disques locaux.

Le stockage persistant devient essentiel lorsque les données doivent survivre au-delà du cycle de vie d’un pod. Au-delà des bases de données, les journaux d’applications pour la conformité, les téléchargements d’utilisateurs et les fichiers de configuration nécessitent tous une persistance. Les plateformes de surveillance génèrent quotidiennement des gigaoctets de métriques et de tracés persistants par application.

Le coût caché du choix de composés incorrects au fil du temps. Les entreprises qui optent par défaut pour un stockage permanent pour tout ce qui concerne les coûts croissants et les frais de gestion. Ceux qui sous-provisionnent un stockage persistant risquent de perdre des données lorsque le stockage éphémère se remplit de manière inattendue. Assurez-vous d’analyser les exigences du cycle de vie des données avant le déploiement, et non après la survenue d’incidents.

Avantages et inconvénients du stockage persistant

Toutes les entreprises ont besoin de données persistantes, mais le défi consiste à préserver l’intégrité et la disponibilité des données après leur modification. La plupart des bases de données disposent d’une technologie avancée pour réduire les « lectures sales », entraînant le retour et le stockage de données incorrectes sur disque. Les fichiers journaux assurent le suivi des transactions de la base de données pour éviter la perte d’intégrité des données.

Les entreprises doivent disposer d’un plan de stockage de données pour garantir la cohérence et la sécurité des données. Les données doivent être normalisées de manière à ce que les données restent cohérentes sur toutes les applications et ne se mettent pas à jour à plusieurs endroits, ce qui peut entraîner des inexactitudes. Toutes les données doivent être sécurisées à l’aide de règles d’authentification et d’autorisation, et des systèmes de surveillance doivent être en place pour détecter toute activité suspecte.

Le stockage cloud offre aux entreprises une option flexible pour réduire leurs budgets informatiques tout en réduisant les frais de maintenance. Les administrateurs disposent de fonctionnalités intégrées pour sécuriser les sauvegardes de bases de données et les données de production, et ils n’ont pas besoin de gérer le matériel. Les entreprises doivent toujours disposer de sauvegardes de leurs données persistantes, et le cloud offre l’évolutivité nécessaire pour augmenter la capacité à mesure que davantage de données sont collectées et stockées.

Mise en œuvre du stockage persistant : Bonnes pratiques d’entreprise

Une mise en œuvre réussie nécessite une planification stratégique alignée sur les exigences de l’entreprise. Les entreprises qui se précipitent dans la mise en œuvre sans évaluation sont confrontées à des goulets d’étranglement des performances, à des coûts inattendus et à des difficultés de migration.

Évaluation préalable à la mise en œuvre

Commencez par classer les charges de travail en trois niveaux :

  • Critique : Bases de données, journaux de transactions
  • Important : État de l’application, données utilisateur
  • Temporaire : Cache, traitement intermédiaire

Les exigences de performance varient considérablement. Les bases de données haute performance peuvent nécessiter des milliers d’IOPS seconde avec une latence inférieure à la milliseconde, tandis qu’un CMS peut fonctionner correctement avec 1 000 IOPS par seconde. Documentez clairement les exigences : les spécifications vagues comme le « stockage rapide » entraînent un surallocation.

Stratégie multi-cloud

Les déploiements multi-cloud compliquent le stockage persistant. Les performances varient considérablement : un volume qui génère 16 000 IOPS sur AWS peut produire des résultats différents sur Azure avec des spécifications identiques.

Les organisations qui opèrent sur plusieurs clouds font souvent face à des frais de gestion du stockage plus élevés. La solution ? Standardisez votre environnement sur une plateforme de gestion des données unique qui élimine les différences entre les fournisseurs tout en assurant des performances constantes.

Stockage persistant à l’échelle de l’entreprise

La mise à l’échelle au-delà de la Proof of Concept révèle des complexités que les implémentations de base ne rencontrent jamais. Les environnements d’entreprise exigent des performances garanties, une conformité réglementaire et une durabilité économique pour des milliers de volumes persistants.

Exigences de performance pour les bases de données de production

La cohérence des latences est plus importante que la latence moyenne. Une base de données avec une latence moyenne de 500 microsecondes, mais parfois des pics de 50 millisecondes, fonctionne moins bien qu’une base de données avec une latence constante de 1 milliseconde.

La relation entre les performances du stockage et le débit de la base de données n’est pas linéaire. Le doublement des IOPS de 10 000 à 20 000 ne peut améliorer le débit des transactions que de 30 % si la latence reste inchangée. 

L’optimisation de la profondeur des files d’attente devient essentielle à grande échelle. Augmenter la profondeur de la file d’attente de 32 à 128 peut améliorer considérablement le débit pour les charges de travail parallèles, bien qu’elle puisse légèrement augmenter la latence pour les opérations en série.

Disaster Recovery et continuité des opérations

Les objectifs de temps de reprise (RTO) et les objectifs de Recovery Point de reprise (RPO) déterminent l’architecture. L’obtention d’un RTO inférieur à une heure nécessite une réplication synchrone, qui double les coûts de stockage et impacte les performances en raison des retards d’accusé de réception en écriture.

La protection par snapshot offre un terrain d’entente. Les systèmes modernes créent des snapshots homogènes toutes les 15 minutes, avec un impact minimal. Il est recommandé aux organisations de maintenir des politiques de conservation appropriées, en équilibrant les besoins de reprise et les coûts de stockage.

La Disaster Recovery sinistre interrégionale ajoute de la complexité. La physique du réseau exige que la réplication d’une côte à l’autre ajoute 40 à 50 millisecondes de latence. De nombreuses entreprises adoptent des approches par niveaux : réplication synchrone en local pour un RPO nul, avec réplication asynchrone vers des régions éloignées pour une protection contre les pannes catastrophiques.

Multi-locataire et isolation des ressources

Les déploiements Kubernetes d’entreprise hébergent plusieurs équipes sur une infrastructure partagée, ce qui nécessite une isolation stricte. Les quotas de stockage empêchent la monopolisation de la capacité, mais ne permettent pas d’isoler les performances. Une tâche d’analyse de données peut priver de bases de données d’IOPS par seconde sur le même backend.

Les politiques de qualité de service (QoS) garantissent des performances par locataire. Le minimum dIOPS garantit que les applications critiques conservent leurs performances pendant les conflits. Les limites maximales dIOPS seconde empêchent les charges de travail éparses de monopoliser les ressources.

L’isolation des ressources s’étend à la sécurité et à la conformité. Les établissements de santé doivent s’assurer que les données réglementées par la loi HIPAA restent sur des systèmes de stockage spécifiques avec chiffrement. Les services financiers ont besoin d’une preuve de résidence des données pour assurer la conformité réglementaire.

Sécuriser le stockage persistant contre Ransomware

Ransomware ciblent de plus en plus le stockage persistant, car les bases de données chiffrées paralysent les opérations. Les stratégies de sauvegarde traditionnelles échouent lorsque les attaquants accèdent à l’administration et suppriment à la fois les données primaires et les sauvegardes.

La vulnérabilité découle d’une conception fondamentale : les administrateurs ont besoin de capacités de suppression pour la maintenance de routine. Les hackers dont les identifiants sont compromis héritent de ces privilèges, ce qui leur permet de chiffrer les volumes et de supprimer les snapshots. Même les snapshots « immuables » dans de nombreux systèmes peuvent être supprimés via des appels API ou des backdoors de prise en charge.

Immuabilité architecturale pour les volumes persistants

La véritable immuabilité nécessite des systèmes de stockage qui ne peuvent pas physiquement supprimer les données avant l’expiration de la conservation, indépendamment des informations d’identification. Il ne s’agit pas d’un contrôle d’accès basé sur les rôles, mais de l’absence totale de chemins de code de suppression. Lorsqu’un snapshot est marqué comme immuable pendant 30 jours, aucune combinaison d’appels API, d’interventions de support ou d’accès physique ne peut le supprimer.

La mise en œuvre implique des chemins d’accès en écriture unique et une vérification cryptographique des politiques de conservation. Les contrôleurs de stockage valident la conservation à l’aide de modules matériels sécurisés que les logiciels ne peuvent pas remplacer. Cela transforme le stockage persistant d’une cible de Ransomware en une solution de Ransomware.

La reprise à l’aide d’un stockage permanent immuable prend des heures au lieu de plusieurs semaines. Les organisations identifient le dernier snapshot propre, restaurent les volumes et reprennent les opérations. Le temps moyen de reprise diminue considérablement avec des snapshots immuables correctement configurés.

Stockage persistant pour les charges de travail d’AI et d’Machine Learning

Les charges de travail d’AI  mettent l’accent sur le stockage persistant de manière unique. Les ensembles de données d’entraînement dépassent souvent 100TB, les modèles lisant l’ensemble des ensembles de données plusieurs fois par période. Les clusters GPU qui coûtent des milliers d’heures restent inactifs lorsque le stockage ne peut pas fournir les données suffisamment rapidement, ce qui affecte la majorité des initiatives d’AI.

Ce défi associe bande passante, latence et schémas d’accès simultanés. L’entraînement distribué peut comporter 64 GPU lisant simultanément différentes parties de l’ensemble de données tout en écrivant des points de contrôle. Les architectures traditionnelles qui font passer les I/O par quelques contrôleurs créent des goulets d’étranglement, ce qui gaspille les coûts de calcul.

Optimisation de l’utilisation des GPU

Les architectures parallèles modernes conçues pour l’AI permettent d’utiliser jusqu’à 98 % des GPU  graphiques, tandis que les approches traditionnelles sont généralement insuffisantes. La clé : éliminer les goulets d’étranglement des contrôleurs grâce à des architectures scale-out où chaque nœud de stockage sert directement les données. L’ajout linéaire de nœuds augmente à la fois la capacité et les performances.

L’optimisation des points de contrôle est cruciale. Les grands modèles linguistiques génèrent plus de 1TB de points de contrôle qui doivent écrire sans interrompre l’entraînement. Les I/O Checkpoint peuvent avoir un impact significatif sur le débit d’entraînement. Un stockage dédié aux points de contrôle avec optimisation de l’écriture permet de réaliser des points de contrôle parallèles tout en maintenant l’utilisation du GPU.

Les coûts du stockage AI diffèrent fondamentalement. Alors que les entreprises optimisent généralement la capacité par dollar, l’AI optimise l’utilisation des GPU par dollar. Le doublement des investissements de stockage pour améliorer l’utilisation des GPU graphiques de 50 % à 90 % permet d’obtenir 80 % de calcul en plus sans processeurs graphiques supplémentaires. L’investissement dans le stockage se rentabilise en quelques semaines.

Considérations relatives au pipeline de données

Les pipelines ML nécessitent un stockage persistant prenant en charge plusieurs protocoles simultanément. Les spécialistes des données utilisent NFS via les blocs-notes Jupyter pour entraîner l’accès aux tâches via S3. Le stockage traditionnel impose des copies distinctes par protocole, triplant les coûts et créant des cauchemars de synchronisation.

Les plateformes unifiées peuvent entraîner une réduction significative du stockage grâce à la consolidation des protocoles. Un seul espace de nom accessible via n’importe quel protocole signifie que les données S3-ingested sont immédiatement accessibles aux outils basés sur NFS sans copie. La préparation des données passe ainsi de plusieurs jours à plusieurs heures, tout en réduisant considérablement les besoins en stockage.

L’avenir des technologies de stockage persistantes

Les dirigeants du secteur prévoient que le secteur de la technologie flash pourrait remplacer entièrement la capacité de sortie de l’ensemble du secteur des disques durs d’ici 2028, faisant du stockage persistant 100 % flash la seule option. Il ne s’agit pas seulement d’un changement technologique, mais d’une inévitable économique, car les prix de la technologie flash chutent alors que les disques atteignent des limites physiques.

La mort du stockage hiérarchisé représente le plus grand changement. Lorsque tout le stockage s’exécute sur une mémoire flash avec une réduction de données de 10 :1, l’argument économique pour des niveaux plus lents s’évapore. La majorité des données « froides » étant consultées régulièrement, les coûts de hiérarchisation dépassent les économies réalisées. Les architectures futures offriront des performances uniformes pour toutes les données.

Mémoire persistante et mémoire de classe stockage

Les nouvelles technologies de mémoire persistante brouillent les limites du stockage de mémoire. Bien que la capacité limite actuellement la mémoire persistante aux métadonnées et à la mise en cache, les technologies de nouvelle génération promettent des modules de téraoctets qui remplacent le stockage traditionnel pour les charges de travail sensibles à la latence.

Cela permet de créer de nouvelles architectures applicatives. Les bases de données conservent les index dans une mémoire persistante pour les réponses aux requêtes de la microseconde. Les files d’attente de messages atteignent des millions d’opérations par seconde avec une persistance totale. L’analytique en temps réel traite les données en streaming sans la complexité de l’architecture lambda.

Stockage persistant autogéré

L’AI transforme le stockage persistant de l’infrastructure gérée en systèmes autonomes. Les plateformes modernes analysent quotidiennement d’énormes volumes télémétriques, prédisant les défaillances bien à l’avance avec une grande précision. Les systèmes rééquilibrent automatiquement les charges de travail, optimisent les performances et commandent des pièces de rechange avant les pannes.

Les plateformes AIOps réduisent les tickets d’incident. Les administrateurs passent de la lutte contre les incendies à la planification stratégique. Le temps moyen de résolution passe de quelques heures à quelques minutes, souvent résolu avant que les applications ne le remarquent.

À l’avenir, le stockage persistant sera aussi autonome que les systèmes électriques, toujours disponibles, auto-réparables, sans maintenance. La simplicité architecturale, les opérations d’AI et les plateformes unifiées rendront le stockage invisible pour les applications et les administrateurs.

Conclusion

Le stockage persistant est passé des baies de disques de base à la base d’une infrastructure cloud native. Pour passer des serveurs physiques aux conteneurs orchestrés par Kubernetes, il faut repenser la persistance des données, en allant au-delà du stockage traditionnel à plusieurs niveaux vers des plateformes unifiées et intelligentes.

L’Insight critique : La réussite permanente du stockage ne consiste pas à gérer la complexité, mais à l’éliminer. Qu’il s’agisse de mettre en œuvre des volumes persistants, de se protéger contre le Ransomware ou d’optimiser les charges de travail d’AI, les principes restent constants. Donnez la priorité à la simplicité architecturale, adoptez les avantages économiques du 100 % flash et exploitez l’automatisation. 

Commencez par vérifier vos classes de stockage et identifier les charges de travail qui utilisent toujours la persistance sur disque. Implémentez l’immuabilité architecturale pour une protection contre le Ransomware avant que les attaques ne se produisent. Plus important encore, standardisez votre environnement sur des plateformes unifiées, en éliminant les frontières artificielles entre le stockage de fichiers, de blocs et d’objets.

Everpure FlashArray™ et FlashBlade® incarnent cette approche moderne, avec une latence constante inférieure à la milliseconde, une réduction de données de 10 :1 et une gestion pilotée par l’AI, pour éviter les problèmes avant qu’ils n’aient d’impact. Avec les snapshots SafeMode™ offrant une protection immuable sur le plan architectural et le stockage Evergreen™ ne nécessitant aucune migration, les entreprises se concentrent sur l’innovation plutôt que sur la maintenance de l’infrastructure. L’avenir du stockage persistant est unifié, intelligent et étonnamment simple.

Nous vous recommandons également…

07/2020
FlashArray//X fiche technique | Pure Storage
Le stockage accéléré partagé pour toutes les charges de travail.
Fiche technique
9 pages

Parcourez les ressources clés et les événements

VIDÉO
À voir : Avantages d’Enterprise Data Cloud

Charlie Giancarno : l’avenir dépend de la gestion des données, pas du stockage Découvrez comment une approche unifiée peut transformer les opérations informatiques au sein de l’entreprise

Regarder maintenant
RESSOURCE
Le stockage traditionnel ne peut pas alimenter l’avenir.

Les charges de travail modernes exigent des vitesses, des mesures de sécurité et une évolutivité adaptées à l’IA. Votre pile est-elle prête ?

Lancer l’évaluation
PURE360-DEMOS
Pure Storage erkunden, kennenlernen und erleben.

Überzeugen Sie sich mit On-Demand-Videos und -Demos von den Möglichkeiten von Pure Storage.

Demos ansehen
LEADERSHIP ÉCLAIRÉ
La course à l’innovation

Les dernières informations stratégiques et perspectives fournies par des leaders du secteur, pionniers de l’innovation en matière de stockage.

En savoir plus
Votre navigateur n’est plus pris en charge !

Les anciens navigateurs présentent souvent des risques de sécurité. Pour profiter de la meilleure expérience possible sur notre site, passez à la dernière version de l’un des navigateurs suivants.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Stratégies de virtualisation pérennes

Des options de stockage adaptées à tous vos besoins.

Favorisez les projets d’IA à n’importe quelle échelle

Stockage haute performance pour les pipelines de données, l’entraînement et l’inférence.

Prévenir la perte de données

Des solutions de cyber-résilience qui réduisent vos risques.

Réduire le coût des opérations cloud

Stockage économique pour Azure, AWS et les clouds privés.

Accélérer les performances des applications et des bases de données

Stockage à faible latence pour accélérer les performances des applications.

Réduire la consommation d’énergie et d’espace du datacenter

Stockage efficace en ressources pour améliorer l’utilisation du datacenter.

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.