Skip to Content
Dismiss
Innovazione
Una piattaforma creata per l'AI

Unificata, automatizzata e pronta a trasformare i dati in intelligence.

Scopri come
Dismiss
16-18 giugno, Las Vegas
Pure//Accelerate® 2026

Scopri come trarre il massimo dai tuoi dati. 

Registrati ora

Che cos'è NVMe? La guida completa a Non-Volatile Memory Express

I protocolli di storage progettati per le unità meccaniche limitano le performance flash da oltre dieci anni. Mentre le unità SSD forniscono hardware con capacità di microsecondi, i protocolli legacy come SATA e SAS aggiungono centinaia di microsecondi di latenza non necessaria attraverso le loro architetture a coda singola e i livelli di traduzione dei protocolli, in base ai benchmark di settore e ai deployment del mondo reale.

NVMe (Non-Volatile Memory Express) è un protocollo di storage progettato specificamente per le unità a stato solido che si collega direttamente tramite l'interfaccia PCIe, eliminando i colli di bottiglia dei protocolli dell'era dei dischi. Invece di incanalare i comandi in una singola coda come SATA, NVMe abilita fino a 64.000 code con 64.000 comandi ciascuna, cambiando radicalmente il modo in cui lo storage comunica con i moderni processori multi-core.

Ma la maggior parte delle discussioni non riesce a capire che la semplice aggiunta di unità NVMe non è sufficiente se il sistema continua a tradurre i protocolli, convertendo NVMe in SCSI e di nuovo in vari punti del percorso dei dati.

Questa guida esamina l'architettura NVMe, ne quantifica i vantaggi prestazionali reali e spiega perché l'implementazione NVMe end-to-end è importante.

In che modo NVMe ha rivoluzionato l'architettura di storage

Per due decenni, i protocolli di storage sono stati progettati in base a limitazioni meccaniche. SATA e SAS presupponevano che i dispositivi di storage avessero bisogno di tempo per cercare fisicamente i dati, integrando un overhead di comando che aveva senso quando i piatti del disco dovevano ruotare in posizione. Questi protocolli incanalano tutti i comandi in un'unica coda, adeguata per le richieste meccaniche ma catastrofica per la memoria flash in grado di fornire risposte di microsecondi.

La mancata corrispondenza del protocollo diventa chiara nei numeri. SAS supporta fino a 256 comandi (secondo la specifica SAS-3)nella sua singola coda, mentre le unità SSD aziendali gestiscono migliaia di operazioni simultanee. Questi protocolli legacy richiedono più livelli di traduzione: le applicazioni inviano comandi NVMe che vengono tradotti in SCSI, quindi in SATA o SAS, quindi potenzialmente tornano in NVMe a livello di unità. Ogni traduzione aggiunge 50-200 microsecondi di latenza.

Perché Flash aveva bisogno del proprio protocollo

NVMe è emersa nel 2011 per eliminare le penali di traduzione. Anziché adattare i protocolli su disco, il consorzio NVM Express ha progettato un protocollo che non prevede componenti meccanici. NVMe semplifica il set di comandi, eliminando i costi generali di analisi e mantenendo al contempo la funzionalità completa.

Il protocollo collega lo storage direttamente alle CPU tramite le file PCIe, la stessa interfaccia ad alta velocità utilizzata per le schede grafiche. In questo modo lo storage viene posizionato come peer rispetto ad altri componenti a performance elevate invece di essere rilegato dietro i livelli di traduzione. Con PCIe Gen 4 che fornisce 64GB/s di larghezza di banda, NVMe consente il funzionamento della memoria flash senza vincoli.

Come funziona NVMe: Architettura e componenti

L'architettura NVMe ridefinisce radicalmente la comunicazione di storage. Invece degli adattatori bus host tradizionali, lo storage NVMe appare sulla CPU come I/O con mappatura della memoria, consentendo l'accesso diretto senza costi generali del kernel per le operazioni critiche.

Architettura delle code e ottimizzazione della CPU

I processori moderni contengono decine di core, ma i protocolli di storage legacy li incanalano in un'unica coda I/O. NVMe assegna coppie di code dedicate a ciascun core della CPU, eliminando il conflitto di blocchi e consentendo un'elaborazione parallela reale.

Quando un'applicazione ha bisogno di dati, inserisce comandi nelle code di invio tramite semplici scritture di memoria, senza richiedere chiamate di sistema. Il controller NVMe elabora i comandi in modo indipendente e inserisce i risultati nelle code di completamento. Questo modello asincrono significa che le CPU non passano praticamente nessun ciclo in attesa di storage.

Vie e larghezza di banda PCIe

I dispositivi NVMe si connettono tramite corsie PCIe, ciascuna delle quali fornisce larghezza di banda bidirezionale. Un'unità SSD NVMe tipica utilizza quattro file PCIe, con capacità fino a 8GB/s con PCIe Gen 4. Gli array enterprise aggregano più dispositivi per una velocità di trasmissione ancora più elevata.

Ma la larghezza di banda da sola non determina le performance. La latenza, ovvero il tempo che intercorre tra la richiesta e la risposta, spesso è più importante per i workload transazionali. La connessione PCIe diretta di NVMe elimina più transizioni bus e conversioni di protocolli che affliggono le implementazioni SATA.

Vantaggi delle performance NVMe: Numeri reali, non marketing

Il marketing del settore dello storage spesso fa affermazioni vaghe come "veloce" o "ultra-reattivo". Tuttavia, NVMe offre vantaggi reali.

Latenza: La realtà dei microsecondi

Protocollo di storage

Latenza tipica

Spese generali del protocollo

SSD SATA

100-200 μs

50-100 μs

NVMe Direct

20-100 μs

<10 μs

NVMe end-to-end di Pure Storage

150 μs

0 μs

Slide

Secondo i test del settore e le specifiche dei vendor, le letture flash NAND raw richiedono circa 100 microsecondi. Tuttavia, le unità SSD SATA in genere forniscono latenze totali di 100-200 microsecondi, mentre le unità SSD NVMe raggiungono i 20-100 microsecondi, dimostrando come il overhead del protocollo può essere uguale o superiore al tempo di accesso effettivo ai supporti.

IOPS e impatto sul mondo reale

Un singolo dispositivo NVMe può fornire oltre 1 milione di IOPS per letture casuali da 4KB, con performance che richiedono decine di unità SSD SATA. I database Oracle su NVMe end-to-end mostrano:

  • Più transazioni al secondo
  • Riduzione dei tempi di risposta alle query
  • Meno eventi di attesa correlati allo storage

Efficienza energetica

L'efficienza di NVMe aumenta i vantaggi in termini di performance. Eliminando le spese generali del protocollo:

  • SSD SATA: ~10.000 IOPS per watt
  • SSD NVMe: ~50.000 IOPS per watt

NVMe-oF: Estensione di NVMe oltre Direct Attachment

NVMe over Fabrics estende i vantaggi NVMe tra i data center, consentendo lo storage condiviso senza sacrificare i vantaggi di latenza. Tuttavia, le scelte di implementazione influiscono notevolmente sulle performance.

NVMe over fibre channel (FC-NVMe)

FC-NVMe sfrutta l'infrastruttura SAN esistente, rendendola attraente per le aziende con investimenti in fibre channel. Richiede switch Gen 5 (16 Gb) o Gen 6 (32 Gb) che supportano l'inoltro NVMe; gli switch precedenti che affermano "supporto NVMe" spesso eseguono la traduzione del protocollo, reintroducendo le spese generali.

NVMe su RoCE

RoCE promette la latenza di rete più bassa tramite bypass del kernel: le operazioni RDMA vengono completate in circa un microsecondo. Ma RoCE richiede Ethernet senza perdita con Priority Flow Control su ogni switch e adattatore. Una porta mal configurata può causare un calo delle performance. In realtà, molti deployment "RoCE" eseguono iWARP perché il vero RoCE si rivela troppo fragile. Una volta implementato correttamente, RoCE può fornire una latenza di storage di 160-180 microsecondi.

NVMe su TCP

NVMe/TCP viene eseguito su Ethernet standard senza hardware speciale. I critici la considerano "lenta", ma le implementazioni moderne possono raggiungere una latenza dell’ordine di microsecondi di 200-250, più veloce delle unità SSD SATA nonostante l'attraversamento della rete.

Il vantaggio principale: la semplicità. NVMe/TCP funziona con switch, NIC standard e reti di provider cloud esistenti.

Implementazione di NVMe in produzione

La semplice installazione delle unità NVMe raramente offre i vantaggi previsti. L'intero stack di storage deve supportare le operazioni NVMe end-to-end.

Trappola della traduzione del protocollo

Molte organizzazioni acquistano unità SSD NVMe per gli array esistenti e si aspettano una trasformazione. Le unità comunicano tramite NVMe, ma il controller traduce tutto in SCSI per la compatibilità. Questa traduzione aggiunge microsecondi, negando i vantaggi di NVMe.

Requisiti di OS e migrazione

NVMe richiede un sistema operativo moderno Operating System. Ognuna richiede configurazioni specifiche: affinità di interruzione, moduli multipercorso e regolazioni della profondità della coda.

Per una migrazione efficace:

  1. Inizia con i workload non critici per la convalida
  2. Implementa il monitoraggio della latenza a ogni livello
  3. Dai priorità ai database sensibili alla latenza
  4. Verifica NVMe end-to-end con strumenti come NVMe-cli

NVMe per AI e workload moderni

Le GPU costose spesso sono inattive, in attesa di dati. NVMe cambia tutto questo grazie allo storage diretto GPU, consentendo alle unità di trasferire i dati direttamente nella memoria GPU.

Per il training basato sull'AI, questo significa:

  • Addestramento più rapido dell'epoca
  • Scrittura dei checkpoint più rapida
  • Aumento dell'utilizzo della GPU  
  • CPU libera per la pre-elaborazione

I database vanno oltre la velocità raw. La latenza inferiore a 200 microsecondi prevedibile di NVMe elimina l'incertezza nella pianificazione delle query. Gli ottimizzatori prendono decisioni migliori sapendo che i dati arrivano rapidamente. Le applicazioni progettate per lo storage lento si comportano in modo diverso quando lo storage diventa prevedibile.

Il vantaggio NVMe end-to-end di Pure Storage

Mentre il settore discute le strategie di adozione, Pure Storage ha implementato NVMe end-to-end in migliaia di deployment dei clienti, generando una telemetria che rivela ciò che effettivamente funziona. Il fattore di differenziazione sta eliminando ogni traduzione di protocollo tra l'applicazione e il flash NAND.

DirectFlash: Eliminazione delle spese generali nascoste

Le unità SSD NVMe tradizionali contengono controller ridondanti e overprovisioning. I moduli Pure Storage® DirectFlash® espongono la NAND raw direttamente all'interfaccia NVMe dell'array, offrendo:

  • Maggiore capacità utilizzabile
  • Consumo energetico inferiore
  • Latenza prevedibile senza garbage collection
  • Wear Leveling globale su tutti i flash

Architettura NVMe end-to-end

Il software Purity mantiene NVMe da host a NAND, supportando al contempo i sistemi legacy. Per gli host NVMe, fornisce accesso diretto al namespace. Per gli host legacy, si traduce una volta all'edge dell'array, non internamente.

Pure Storage FlashArray//X™ offre una latenza costante inferiore a 200 microsecondi eliminando le conversioni interne dei protocolli:

  • Array Pure Storage: latenza media di 150 μs
  • Array "NVMe" tradizionali con traduzione interna: 400-600 μs
  • La differenza: eliminazione delle spese generali di traduzione del protocollo

Evoluzione non disruptive

L'architettura Pure Storage Evergreen  consente l'adozione di NVMe senza forklift upgrade. Evergreen I controller effettuano l'upgrade a versioni con funzionalità NVMe senza migrazione dei dati.

Il futuro di NVMe

L'evoluzione di NVMe va oltre la velocità. La specifica NVMe 2.0  introduce lo storage computazionale, che viene elaborato all'interno del dispositivo di storage stesso. Il filtraggio dei database, la compressione e l'inferenza AI avvengono dove risiedono i dati, eliminando i costi generali di movimento.

Conclusione

NVMe rappresenta l'eliminazione dei colli di bottiglia artificiali che limitano le applicazioni per decenni. Quando viene implementato end-to-end senza traduzione del protocollo, NVMe offre una latenza dell’ordine di microsecondi di 150 microsecondi che trasforma tutto, dalle transazioni di database alla formazione AI.

Gli insight cruciali: La traduzione dei protocolli elimina i vantaggi di NVMe. NVMe-oF estende i vantaggi tra i data center, ma l'implementazione è importante. I workload moderni richiedono solo la latenza bassa e prevedibile fornita da NVMe end-to-end.

Un'implementazione end-to-end di Pure Storage, convalidata da migliaia di clienti, dimostra che la latenza dell’ordine di microsecondi di 150 secondi è una realtà operativa. Grazie ai  moduli  DirectFlash, le organizzazioni raggiungono le promesse NVMe in termini di performance. Man mano che lo storage si evolve verso capacità di elaborazione e velocità di memoria, l' architettura Pure Storage EvergreenEvergreen garantisce che gli investimenti di oggi forniscano le innovazioni di domani senza interruzioni.

Prova FlashArray//X con il Test Drive

Lavora in un ambiente self-service per scoprire le funzionalità di gestione di Pure FlashArray//X. Esplora le funzionalità avanzate, tra cui snapshot, replica, ActiveCluster™ e persino l'integrazione di VMware.

Richiedi una prova

Potrebbe interessarti anche...

04/2026
Everpure FlashArray//X: Mission-critical Performance | Everpure
Pack more IOPS, ultra consistent latency, and greater scale into a smaller footprint for your mission-critical workloads with Everpure®️ FlashArray//X™️.
Scheda tecnica
4 pages

Esplora risorse ed eventi principali

TRADESHOW
Pure//Accelerate® 2026
June 16-18, 2026 | Resorts World Las Vegas

Preparati all'evento più importante a cui parteciperai quest'anno.

Registrati ora
DEMO DI PURE360
Esplora, scopri e prova Pure Storage.

Accedi a video e demo on demand per scoprire i vantaggi che Pure Storage ti offre.

Guarda le demo
VIDEO
Guarda: Il valore di un Enterprise Data Cloud (EDC).

Charlie Giancarlo spiega perché il futuro è nella gestione dei dati, non dello storage. Scopri in che modo un approccio unificato trasforma le operazioni IT aziendali.

Guarda
RISORSA
Lo storage legacy non può alimentare il futuro.

I workload moderni richiedono velocità, sicurezza e scalabilità AI-ready. Il tuo stack è pronto?

Effettua la valutazione
Il browser che stai usando non è più supportato.

I browser non aggiornati spesso comportano rischi per la sicurezza. Per offrirti la migliore esperienza possibile sul nostro sito, ti invitiamo ad aggiornare il browser alla versione più recente.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Strategie di virtualizzazione pronte per affrontare il futuro

Soluzioni di storage per tutte le tue esigenze

Consenti progetti di AI di qualunque dimensione

Storage a performance elevate per pipeline dei dati, formazione e inferenza

Proteggiti dalla perdita dei dati

Soluzioni di resilienza informatica che proteggono i tuoi dati

Riduci i costi delle operazioni su cloud

Storage efficiente dal punto di vista dei costi per Azure, AWS e private cloud

Accelera le performance di applicazioni e database

Storage a bassa latenza per le performance delle applicazioni

Riduci il consumo di energia e di ingombro del data center

Storage efficiente delle risorse per ottimizzare l'utilizzo dei data center

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.