Skip to Content
Dismiss
Innovazione
Una piattaforma creata per l'AI

Unificata, automatizzata e pronta a trasformare i dati in intelligence.

Scopri come
Dismiss
16-18 giugno, Las Vegas
Pure//Accelerate® 2026

Scopri come trarre il massimo dai tuoi dati. 

Registrati ora

Che cos'è lo storage persistente?

Quando i containers vengono riavviati, le applicazioni aziendali perdono dati critici a meno che non sia stato implementato correttamente lo storage persistente. Questo requisito fondamentale dell'infrastruttura determina se le applicazioni stateful mantengono l'integrità dei dati o subiscono perdite catastrofiche durante le operazioni di routine.

Lo storage persistente è un meccanismo di data storage che conserva le informazioni oltre il ciclo di vita delle applicazioni, dei containers o del riavvio del sistema. A differenza dello storage effimero che scompare quando un container termina, lo storage persistente garantisce la sopravvivenza di database, file system e stato delle applicazioni indipendentemente dalle modifiche dell'infrastruttura. Per le organizzazioni che eseguono workload Kubernetes, questo significa che PersistentVolumes mantiene i dati anche quando i pod vengono creati, distrutti e ripianificati tra i cluster. 

La sfida non è solo quella di implementare uno storage persistente, ma anche di farlo in modo efficiente su scala enterprise. Gli approcci tradizionali che utilizzano sistemi basati su disco e storage a più livelli creano complessità inutili e allo stesso tempo aumentano i costi. Le moderne architetture all-flash offrono una convenienza migliore rispetto alla persistenza basata su disco legacy, specialmente quando la maggior parte dei dati presumibilmente "freddi" viene consultata regolarmente.

Questa guida esamina lo storage persistente sia dal punto di vista dell'implementazione tecnica che della strategia aziendale. Scoprirai come Kubernetes gestisce la persistenza tramite StorageClasses e PersistentVolumeClaims, perché le ipotesi di storage tradizionale non sono più valide e come progettare uno storage persistente scalabile senza migrazioni o cicli di refresh.

L'evoluzione dello storage persistente

I server fisici un tempo garantivano l'accesso permanente ai dischi locali, un lusso che scompariva con la virtualizzazione e la containerizzazione. Questo cambiamento ha cambiato radicalmente il modo in cui le applicazioni gestiscono la persistenza dei dati.

La virtualizzazione ha introdotto le reti ad area di storage (SAN, Storage Area Network), consentendo alle macchine virtuali di migrare tra gli host mantenendo l'accesso ai dati. Ciò ha funzionato per le applicazioni monolitiche, ma ha creato colli di bottiglia quando le organizzazioni avevano bisogno di una scalabilità rapida.

Le piattaforme di orchestrazione dei containers come Kubernetes hanno trasformato ancora una volta la persistenza attraverso l'astrazione. Invece di gestire direttamente i supporti LUN o NFS, gli sviluppatori richiedono lo storage tramite le richieste di volume persistente che si legano automaticamente ai volumi persistenti disponibili. Questa astrazione consente la portabilità ma introduce nuove sfide: garantire la coerenza delle performance, gestire le classi di storage in modo efficace e prevenire la perdita di dati durante la migrazione dei pod.

Il passaggio ai microservizi amplifica queste problematiche. Le architetture moderne richiedono uno storage persistente per decine di servizi stateful, ciascuno con requisiti di performance diversi. Lo storage tradizionale a più livelli che separa i dati "caldi" e "freddi" si rivela inefficiente quando i modelli di accesso cambiano continuamente.

Come funziona lo storage persistente nell'infrastruttura moderna

Lo storage persistente in Kubernetes opera attraverso un livello di astrazione che separa il provisioning dello storage dal consumo. Questa architettura consente alle applicazioni di richiedere lo storage senza conoscere i dettagli dell'implementazione.

Architettura di storage persistente Kubernetes

Il sottosistema PersistentVolume (PV) gestisce le risorse di storage indipendentemente dai cicli di vita dei pod. Quando un pod ha bisogno di storage, crea un PersistentVolumeClaim (PVC) che specifica i requisiti di capacità, modalità di accesso e classe di storage. Kubernetes quindi abbina questa affermazione a un PersistentVolume disponibile o effettua il provisioning dinamico di uno tramite il provider di storage configurato.

Questo legame è permanente: una volta che un PVC si lega a una PV, tale relazione persiste fino a quando non viene esplicitamente eliminato. Anche se il pod si arresta in modo anomalo o migra in un altro nodo, i dati rimangono intatti e accessibili. Il driver Container Storage Interface (CSI) del provider di storage gestisce l'effettivo collegamento e distacco dei volumi ai nodi.

Classi di storage e provisioning dinamico

Le classi di storage definiscono diversi tier di storage con caratteristiche di performance specifiche. Invece di pre-creare volumi, gli amministratori configurano StorageClasses che eseguono automaticamente il provisioning dello storage quando le applicazioni lo richiedono. Un'azienda tipica potrebbe definire:

  • "fast-ssd" per i database che richiedono IOPS elevati
  • "standard" per i workload generali
  • "archive" per la conservazione a lungo termine

Il provisioning dinamico elimina il workflow tradizionale in cui gli amministratori creano manualmente volumi per ogni applicazione. Quando gli sviluppatori implementano applicazioni stateful con PVC che fanno riferimento a una classe di storage, il sistema di storage crea automaticamente volumi di dimensioni appropriate con le caratteristiche di performance corrette. Questa automazione riduce i tempi di provisioning da giorni a secondi.

Modalità di accesso e policy di recupero

I volumi persistenti supportano tre modalità di accesso:

  • ReadWriteOnce (RWO): Volume montato come lettura/scrittura da un singolo nodo
  • ReadOnlyMolti (ROX): Volume montato in sola lettura da più nodi
  • ReadWriteMany (RWX): Volume montato come lettura/scrittura da più nodi

La policy di recupero determina cosa succede quando un PVC viene eliminato. "Elimina" rimuove sia la PV che lo storage sottostante, mentre "Conserva" conserva i dati per la pulizia manuale. La comprensione di queste policy impedisce la perdita accidentale di dati.

Storage persistente e storage effimero

La distinzione tra storage persistente ed effimero determina le decisioni sull'architettura delle applicazioni. L'incomprensione delle loro caratteristiche causa perdita di dati, problemi di performance e costi inutili.

Caratteristica

Storage persistente

Storage effimero

Ciclo di vita dei dati

Supera i riavvii dei pod e i guasti dei nodi

Eliminato al termine del pod

Performance

IOPS coerenti, latenza di rete

IOPS variabili, latenza locale

Costo

$0,10-0,20/GB/mese tipico

Incluso nel calcolo

Casi d'uso

Database, file storage, stato delle applicazioni

Cache, file temporanei, creazione di artefatti

Requisiti di backup

Essenziale per la business continuity

Non richiesto

Slide

Lo storage effimero eccelle per i dati temporanei che possono essere rigenerati, i livelli di immagine dei container, gli artefatti di costruzione e i file di elaborazione temporanei. L'utilizzo di uno storage effimero per questi workload riduce i costi e la complessità, migliorando al contempo le performance grazie all'accesso al disco locale.

Lo storage persistente diventa essenziale quando i dati devono sopravvivere oltre il ciclo di vita di un pod. Oltre ai database, i log delle applicazioni per la conformità, i caricamenti degli utenti e i file di configurazione richiedono persistenza. Le piattaforme di monitoraggio generano gigabyte di metriche e tracce persistenti per applicazione ogni giorno.

Il costo nascosto della scelta di composti errati nel tempo. Le organizzazioni che utilizzano lo storage persistente per tutto devono far fronte ai costi crescenti e alle spese generali di gestione. Quelle che subiscono un provisioning insufficiente rischiano la perdita di dati quando lo storage effimero si riempie inaspettatamente. Assicurati di analizzare i requisiti del ciclo di vita dei dati prima del deployment, non dopo che si sono verificati incidenti.

Vantaggi e svantaggi dello storage persistente

Ogni azienda ha bisogno di dati persistenti, ma la sfida è preservare l'integrità e la disponibilità dei dati dopo averli modificati. La maggior parte dei database dispone di una tecnologia avanzata per ridurre le "letture sporche" che causano la restituzione di dati errati e la potenziale memorizzazione su disco. I file di registro tengono traccia delle transazioni dei database per evitare la perdita di integrità dei dati.

Le aziende devono disporre di un piano di data storage per garantire la coerenza e la sicurezza dei dati. I dati devono essere normalizzati in modo che rimangano coerenti in tutte le applicazioni e non si aggiornino in più posizioni, determinando possibili imprecisioni. Tutti i dati devono essere protetti utilizzando regole di autenticazione e autorizzazione, e i sistemi di monitoraggio devono essere in atto per rilevare qualsiasi attività sospetta.

Lo storage cloud offre alle aziende un'opzione flessibile per mantenere bassi i budget IT, riducendo al contempo i costi generali di manutenzione. Gli amministratori dispongono di funzionalità integrate per proteggere i backup dei database e i dati di produzione e non hanno bisogno di gestire l'hardware. Le aziende devono sempre disporre di backup dei dati persistenti e il cloud offre la scalabilità necessaria per aumentare la capacità man mano che vengono raccolti e archiviati più dati.

Implementazione di uno storage persistente: Best practice aziendali

Un'implementazione efficace richiede una pianificazione strategica in linea con i requisiti aziendali. Le aziende che affrettano l'implementazione senza valutazione devono affrontare colli di bottiglia nelle performance, costi imprevisti e problemi di migrazione.

Valutazione pre-implementazione

Inizia classificando i workload in tre tier:

  • Critico: Database, log delle transazioni
  • Importante: Stato dell'applicazione, dati utente
  • Temporaneo: Cache, elaborazione intermedia

I requisiti di performance variano notevolmente. I database a performance elevate potrebbero richiedere migliaia di IOPS con latenza inferiore al millisecondo, mentre un CMS può funzionare adeguatamente con 1.000 IOPS. Documenta i requisiti in modo esplicito: specifiche complesse come lo "storage rapido" portano a un overprovisioning.

Strategia multi-cloud

I deployment multi-cloud complicano lo storage persistente. Le performance variano notevolmente: un volume che fornisce 16.000 IOPS su AWS potrebbe ottenere risultati diversi su Azure con specifiche identiche.

Le organizzazioni che operano su più cloud spesso si trovano ad affrontare costi generali di gestione dello storage più elevati. La soluzione? Standardizza su un'unica piattaforma di gestione dei dati che astrae le differenze dei provider mantenendo performance costanti.

Storage persistente su scala enterprise

Scalare oltre il Proof of Concept rivela complessità che le implementazioni di base non incontrano mai. Gli ambienti aziendali richiedono performance garantite, conformità normativa e sostenibilità economica per migliaia di volumi persistenti.

Requisiti di performance per i database di produzione

La coerenza della latenza è molto più importante della latenza media. Un database con una latenza media di 500 microsecondi ma picchi occasionali di 50 millisecondi offre performance peggiori di uno con una latenza costante di 1 millisecondo.

Il rapporto tra le performance dello storage e il throughput del database non è lineare. Il raddoppio degli IOPS da 10.000 a 20.000 potrebbe migliorare la velocità di trasmissione delle transazioni solo del 30% se la latenza rimane invariata. 

L'ottimizzazione della profondità delle code diventa fondamentale su vasta scala. L'aumento della profondità delle code da 32 a 128 può migliorare notevolmente il throughput per i workload paralleli, ma può aumentare leggermente la latenza per le operazioni seriali.

Disaster Recovery e business continuity

I Recovery Point Objective (RPO) e gli RTO (Recovery Point Objective) sono alla base delle scelte di architettura. Il raggiungimento di un RTO inferiore alle ore richiede la replica sincrona, che raddoppia i costi di storage e influisce sulle performance a causa di ritardi nella conferma della scrittura.

La protezione basata su snapshot offre una via di mezzo. I sistemi moderni creano snapshot coerenti con gli incidenti ogni 15 minuti con un impatto minimo. Si consiglia alle organizzazioni di mantenere policy di conservazione appropriate, bilanciando le esigenze di ripristino con i costi di storage.

Il Disaster Recovery tra regioni aggiunge complessità. La fisica della rete impone che la replica da costa a costa aggiunga 40-50 millisecondi di latenza. Molte aziende implementano approcci a più livelli: replica sincrona a livello locale per zero RPO, con replica asincrona in regioni distanti per una protezione dai guasti catastrofici.

Multi-tenancy e isolamento delle risorse

I deployment Kubernetes di livello enterprise ospitano più team su un'infrastruttura condivisa, che richiede un isolamento rigoroso. Le quote di storage impediscono il monopolizzazione della capacità, ma non riguardano l'isolamento delle performance. Un processo di data analytics può causare la mancanza di database IOPS sullo stesso backend.

Le policy QoS (Quality of Service) offrono garanzie di performance per tenant. Le garanzie IOPS minime garantiscono che le applicazioni critiche mantengano le performance durante i conflitti. I limiti massimi degli IOPS impediscono ai workload fuori controllo di monopolizzare le risorse.

L'isolamento delle risorse si estende alla sicurezza e alla conformità. Le organizzazioni sanitarie devono garantire che i dati regolati da HIPAA rimangano su sistemi di storage specifici con crittografia. I servizi finanziari hanno bisogno di una prova di residenza dei dati per garantire la conformità normativa.

Protezione dello storage persistente contro Ransomware

Ransomware prende sempre più di mira lo storage persistente perché i database crittografati bloccano le operazioni. Le strategie di backup tradizionali falliscono quando gli autori degli attacchi ottengono l'accesso amministrativo ed eliminano sia i dati primari che i backup.

La vulnerabilità deriva dalla progettazione fondamentale: gli amministratori hanno bisogno di funzionalità di eliminazione per la manutenzione ordinaria. Gli autori di attacchi con credenziali compromesse ereditano questi privilegi, consentendo loro di crittografare i volumi ed eliminare le snapshot. Anche le snapshot "immutabili" in molti sistemi possono essere eliminate tramite chiamate API o backdoor di supporto.

Immutabilità architettonica per volumi persistenti

L'immutabilità effettiva richiede sistemi di storage che fisicamente non possono eliminare i dati prima della scadenza della conservazione, indipendentemente dalle credenziali. Non si tratta di un controllo degli accessi basato sui ruoli, ma dell'assenza completa di percorsi di codice di eliminazione. Quando una snapshot viene contrassegnata come immutabile per 30 giorni, nessuna combinazione di chiamate API, interventi di supporto o accesso fisico può eliminarla.

L'implementazione prevede percorsi di scrittura una tantum con hardware e la verifica crittografica dei criteri di conservazione. I controller di storage convalidano la conservazione tramite moduli hardware sicuri che il software non può ignorare. Questo trasforma lo storage persistente da un Ransomware bersaglio ransomware a una soluzione Ransomware.

Il ripristino con uno storage persistente immutabile richiede ore anziché settimane. Le organizzazioni identificano l'ultima snapshot pulita, ripristinano i volumi e riprendono le operazioni. Il tempo medio di ripristino diminuisce drasticamente con snapshot immutabili correttamente configurate.

Storage persistente per workload di AI e Machine Learning

I workload di AI  richiedono uno storage persistente esclusivo. I set di dati di addestramento spesso superano i 100TB, con modelli che leggono interi set di dati più volte per periodo. I cluster GPU che costano migliaia all'ora rimangono inattivi quando lo storage non è in grado di fornire i dati abbastanza velocemente, influenzando la maggior parte delle iniziative di AI.

La sfida è costituita dalla combinazione di larghezza di banda, latenza e modelli di accesso simultanei. L'addestramento distribuito potrebbe avere 64 GPU che leggono simultaneamente diverse parti di set di dati durante la scrittura dei checkpoint. Le architetture tradizionali che incanalano l'I/O attraverso pochi controller creano colli di bottiglia, sprecando calcolo costoso.

Ottimizzazione per l'utilizzo della GPU

Le moderne architetture parallele progettate per l'AI raggiungono fino al 98% di utilizzo della GPU , mentre gli approcci tradizionali in genere non sono all'altezza. La chiave: eliminare i colli di bottiglia dei controller tramite architetture scale-out in cui ogni nodo di storage fornisce direttamente i dati. L'aggiunta lineare di nodi aumenta sia la capacità che le performance.

L'ottimizzazione dei punti di controllo è cruciale. I modelli linguistici di grandi dimensioni generano più di 1TB di checkpoint che devono scrivere senza interrompere l'addestramento. Gli I/O Checkpoint possono avere un impatto significativo sulla velocità di trasmissione dell'addestramento. Lo storage dedicato per i checkpoint con ottimizzazione della scrittura consente il checkpoint parallelo mantenendo l'utilizzo della GPU.

I vantaggi economici dello storage AI sono sostanzialmente diversi. Mentre le aziende in genere ottimizzano la capacità per dollaro, l'AI ottimizza l'utilizzo della GPU per dollaro. Il raddoppio degli investimenti in storage per migliorare l'utilizzo della GPU dal 50% al 90% può fornire efficacemente l'80% in più di elaborazione senza GPU aggiuntive. L'investimento in storage si ripaga in poche settimane.

Considerazioni sulla pipeline dei dati

Le pipeline ML richiedono uno storage persistente che supporti più protocolli contemporaneamente. I data scientist utilizzano l'NFS tramite i notebook Jupyter durante l'addestramento dell'accesso ai processi tramite S3. Lo storage tradizionale forza copie separate per protocollo, triplicando i costi e creando incubi di sincronizzazione.

Le piattaforme unificate possono ridurre notevolmente lo storage attraverso il consolidamento dei protocolli. Un unico namespace accessibile tramite qualsiasi protocollo significa che i dati S3-ingested diventano immediatamente disponibili per gli strumenti basati su NFS senza copiarli. In questo modo si riduce la preparazione dei dati da giorni a ore, riducendo drasticamente i requisiti di storage.

Il futuro della tecnologia di storage persistente

Secondo i dirigenti del settore, entro il 2028 il settore flash potrebbe sostituire completamente l'output di capacità dell'intero settore dei dischi rigidi, rendendo lo storage persistente all-flash l'unica opzione. Non si tratta solo di un cambiamento tecnologico, ma anche di un'inevitabilità economica, poiché i prezzi delle unità flash scendono mentre le unità disco raggiungono i limiti fisici.

La morte dello storage a più livelli rappresenta il cambiamento più grande. Quando tutto lo storage viene eseguito su flash con data reduction di 10:1, l'argomento economico per i tier più lenti evapora. Con la maggior parte dei dati "freddi" consultati regolarmente, le spese generali di tiering superano qualsiasi risparmio. Le architetture future forniranno performance uniformi per tutti i dati.

Memoria persistente e memoria di classe storage

Le tecnologie di memoria persistente emergenti offuscano i confini del memory storage. Mentre la capacità attualmente limita la memoria persistente ai metadati e alla memorizzazione nella cache, la tecnologia di nuova generazione promette moduli scalabili in terabyte che sostituiscono lo storage tradizionale per i workload sensibili alla latenza.

Ciò consente di creare nuove architetture applicative. I database mantengono gli indici nella memoria persistente per le risposte alle query in microsecondi. Le code di messaggi raggiungono milioni di operazioni al secondo con la massima persistenza. Gli analytics in tempo reale elaborano i dati in streaming senza la complessità dell'architettura lambda.

Storage persistente con gestione automatica

L'AI trasforma lo storage persistente dall'infrastruttura gestita ai sistemi autonomi. Le piattaforme moderne analizzano enormi volumi di telemetria ogni giorno, prevedendo i guasti con largo anticipo e alta precisione. I sistemi ribilanciano automaticamente i workload, ottimizzano le performance e ordinano le parti di ricambio prima dei guasti.

Le piattaforme AIOps riducono i ticket degli incidenti. Gli amministratori passano dalla pianificazione strategica alla lotta contro gli incendi. Il tempo medio di risoluzione passa da ore a minuti, spesso risolto prima dell'avviso delle applicazioni.

In futuro, lo storage persistente sarà autonomo quanto i sistemi elettrici, sempre disponibili, con riparazione automatica, senza necessità di manutenzione. La semplicità dell'architettura, le operazioni di AI e le piattaforme unificate renderanno lo storage invisibile ad applicazioni e amministratori.

Conclusione

Lo storage persistente si è evoluto dagli array di dischi di base alla base dell'infrastruttura cloud-native. Il passaggio dai server fisici ai containers orchestrati da Kubernetes richiede una ridefinizione della persistenza dei dati, andando oltre lo storage tiered tradizionale verso piattaforme intelligenti e unificate.

Insight cruciali Insight: Il successo dello storage persistente non significa gestire la complessità, ma eliminarla. Che si tratti di implementare volumi persistenti Ransomware, proteggere dal ransomware o ottimizzare i workload di AI, questo principio rimane costante. Dai priorità alla semplicità dell'architettura, sfrutta i vantaggi economici dell'all-flash e sfrutta l'automazione. 

Inizia controllando le classi di storage e identificando i workload ancora utilizzando la persistenza basata su disco. Implementa l'immutabilità dell'architettura per la protezione dal Ransomware prima che si verifichino gli attacchi. Soprattutto, standardizza le piattaforme unificate, eliminando i confini artificiali tra file, block storage e object storage.

Everpure FlashArray™ e FlashBlade® esemplificano questo approccio moderno, fornendo una latenza costante inferiore al millisecondo, una data reduction di 10:1 e una gestione basata sull'AI, evitando i problemi prima dell'impatto. Con SafeMode™ Snapshots che forniscono una protezione architetturalmente immutabile e lo storage Evergreen™ che non richiede mai la migrazione, le aziende si concentrano sull'innovazione piuttosto che sulla manutenzione dell'infrastruttura. Il futuro dello storage persistente è unificato, intelligente e sorprendentemente semplice.

Potrebbe interessarti anche...

09/2025
Everpure FlashArray//X: Mission-critical Performance | Everpure
Pack more IOPS, ultra consistent latency, and greater scale into a smaller footprint for your mission-critical workloads with Everpure®️ FlashArray//X™️.
Scheda tecnica
4 pages

Esplora risorse ed eventi principali

TRADESHOW
Pure//Accelerate® 2026
June 16-18, 2026 | Resorts World Las Vegas

Preparati all'evento più importante a cui parteciperai quest'anno.

Registrati ora
DEMO DI PURE360
Esplora, scopri e prova Pure Storage.

Accedi a video e demo on demand per scoprire i vantaggi che Pure Storage ti offre.

Guarda le demo
VIDEO
Guarda: Il valore di un Enterprise Data Cloud (EDC).

Charlie Giancarlo spiega perché il futuro è nella gestione dei dati, non dello storage. Scopri in che modo un approccio unificato trasforma le operazioni IT aziendali.

Guarda
RISORSA
Lo storage legacy non può alimentare il futuro.

I workload moderni richiedono velocità, sicurezza e scalabilità AI-ready. Il tuo stack è pronto?

Effettua la valutazione
Il browser che stai usando non è più supportato.

I browser non aggiornati spesso comportano rischi per la sicurezza. Per offrirti la migliore esperienza possibile sul nostro sito, ti invitiamo ad aggiornare il browser alla versione più recente.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Strategie di virtualizzazione pronte per affrontare il futuro

Soluzioni di storage per tutte le tue esigenze

Consenti progetti di AI di qualunque dimensione

Storage a performance elevate per pipeline dei dati, formazione e inferenza

Proteggiti dalla perdita dei dati

Soluzioni di resilienza informatica che proteggono i tuoi dati

Riduci i costi delle operazioni su cloud

Storage efficiente dal punto di vista dei costi per Azure, AWS e private cloud

Accelera le performance di applicazioni e database

Storage a bassa latenza per le performance delle applicazioni

Riduci il consumo di energia e di ingombro del data center

Storage efficiente delle risorse per ottimizzare l'utilizzo dei data center

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.