Skip to Content

Che cos'è NVMe? La guida completa a Non-Volatile Memory Express

I protocolli di storage progettati per le unità meccaniche limitano le performance flash da oltre dieci anni. Mentre le unità SSD forniscono hardware con capacità di microsecondi, i protocolli legacy come SATA e SAS aggiungono centinaia di microsecondi di latenza non necessaria attraverso le loro architetture a coda singola e i livelli di traduzione dei protocolli, in base ai benchmark di settore e ai deployment del mondo reale.

NVMe (Non-Volatile Memory Express) è un protocollo di storage progettato specificamente per le unità a stato solido che si collega direttamente tramite l'interfaccia PCIe, eliminando i colli di bottiglia dei protocolli dell'era dei dischi. Invece di incanalare i comandi in una singola coda come SATA, NVMe abilita fino a 64.000 code con 64.000 comandi ciascuna, cambiando radicalmente il modo in cui lo storage comunica con i moderni processori multi-core.

Ma la maggior parte delle discussioni non riesce a capire che la semplice aggiunta di unità NVMe non è sufficiente se il sistema continua a tradurre i protocolli, convertendo NVMe in SCSI e di nuovo in vari punti del percorso dei dati.

Questa guida esamina l'architettura NVMe, ne quantifica i vantaggi prestazionali reali e spiega perché l'implementazione NVMe end-to-end è importante.

In che modo NVMe ha rivoluzionato l'architettura di storage

Per due decenni, i protocolli di storage sono stati progettati in base a limitazioni meccaniche. SATA e SAS presupponevano che i dispositivi di storage avessero bisogno di tempo per cercare fisicamente i dati, integrando un overhead di comando che aveva senso quando i piatti del disco dovevano ruotare in posizione. Questi protocolli incanalano tutti i comandi in un'unica coda, adeguata per le richieste meccaniche ma catastrofica per la memoria flash in grado di fornire risposte di microsecondi.

La mancata corrispondenza del protocollo diventa chiara nei numeri. SAS supporta fino a 256 comandi (secondo la specifica SAS-3)nella sua singola coda, mentre le unità SSD aziendali gestiscono migliaia di operazioni simultanee. Questi protocolli legacy richiedono più livelli di traduzione: le applicazioni inviano comandi NVMe che vengono tradotti in SCSI, quindi in SATA o SAS, quindi potenzialmente tornano in NVMe a livello di unità. Ogni traduzione aggiunge 50-200 microsecondi di latenza.

Perché Flash aveva bisogno del proprio protocollo

NVMe è emersa nel 2011 per eliminare le penali di traduzione. Anziché adattare i protocolli su disco, il consorzio NVM Express ha progettato un protocollo che non prevede componenti meccanici. NVMe semplifica il set di comandi, eliminando i costi generali di analisi e mantenendo al contempo la funzionalità completa.

Il protocollo collega lo storage direttamente alle CPU tramite le file PCIe, la stessa interfaccia ad alta velocità utilizzata per le schede grafiche. In questo modo lo storage viene posizionato come peer rispetto ad altri componenti a performance elevate invece di essere rilegato dietro i livelli di traduzione. Con PCIe Gen 4 che fornisce 64GB/s di larghezza di banda, NVMe consente il funzionamento della memoria flash senza vincoli.

Come funziona NVMe: Architettura e componenti

L'architettura NVMe ridefinisce radicalmente la comunicazione di storage. Invece degli adattatori bus host tradizionali, lo storage NVMe appare sulla CPU come I/O con mappatura della memoria, consentendo l'accesso diretto senza costi generali del kernel per le operazioni critiche.

Architettura delle code e ottimizzazione della CPU

I processori moderni contengono decine di core, ma i protocolli di storage legacy li incanalano in un'unica coda I/O. NVMe assegna coppie di code dedicate a ciascun core della CPU, eliminando il conflitto di blocchi e consentendo un'elaborazione parallela reale.

Quando un'applicazione ha bisogno di dati, inserisce comandi nelle code di invio tramite semplici scritture di memoria, senza richiedere chiamate di sistema. Il controller NVMe elabora i comandi in modo indipendente e inserisce i risultati nelle code di completamento. Questo modello asincrono significa che le CPU non passano praticamente nessun ciclo in attesa di storage.

Vie e larghezza di banda PCIe

I dispositivi NVMe si connettono tramite corsie PCIe, ciascuna delle quali fornisce larghezza di banda bidirezionale. Un'unità SSD NVMe tipica utilizza quattro file PCIe, con capacità fino a 8GB/s con PCIe Gen 4. Gli array enterprise aggregano più dispositivi per una velocità di trasmissione ancora più elevata.

Ma la larghezza di banda da sola non determina le performance. La latenza, ovvero il tempo che intercorre tra la richiesta e la risposta, spesso è più importante per i workload transazionali. La connessione PCIe diretta di NVMe elimina più transizioni bus e conversioni di protocolli che affliggono le implementazioni SATA.

Vantaggi delle performance NVMe: Numeri reali, non marketing

Il marketing del settore dello storage spesso fa affermazioni vaghe come "veloce" o "ultra-reattivo". Tuttavia, NVMe offre vantaggi reali.

Latenza: La realtà dei microsecondi

Protocollo di storage

Latenza tipica

Spese generali del protocollo

SSD SATA

100-200 μs

50-100 μs

NVMe Direct

20-100 μs

<10 μs

NVMe end-to-end di Pure Storage

150 μs

0 μs

Slide

Secondo i test del settore e le specifiche dei vendor, le letture flash NAND raw richiedono circa 100 microsecondi. Tuttavia, le unità SSD SATA in genere forniscono latenze totali di 100-200 microsecondi, mentre le unità SSD NVMe raggiungono i 20-100 microsecondi, dimostrando come il overhead del protocollo può essere uguale o superiore al tempo di accesso effettivo ai supporti.

IOPS e impatto sul mondo reale

Un singolo dispositivo NVMe può fornire oltre 1 milione di IOPS per letture casuali da 4KB, con performance che richiedono decine di unità SSD SATA. I database Oracle su NVMe end-to-end mostrano:

  • Più transazioni al secondo
  • Riduzione dei tempi di risposta alle query
  • Meno eventi di attesa correlati allo storage

Efficienza energetica

L'efficienza di NVMe aumenta i vantaggi in termini di performance. Eliminando le spese generali del protocollo:

  • SSD SATA: ~10.000 IOPS per watt
  • SSD NVMe: ~50.000 IOPS per watt

NVMe-oF: Estensione di NVMe oltre Direct Attachment

NVMe over Fabrics estende i vantaggi NVMe tra i data center, consentendo lo storage condiviso senza sacrificare i vantaggi di latenza. Tuttavia, le scelte di implementazione influiscono notevolmente sulle performance.

NVMe over fibre channel (FC-NVMe)

FC-NVMe sfrutta l'infrastruttura SAN esistente, rendendola attraente per le aziende con investimenti in fibre channel. Richiede switch Gen 5 (16 Gb) o Gen 6 (32 Gb) che supportano l'inoltro NVMe; gli switch precedenti che affermano "supporto NVMe" spesso eseguono la traduzione del protocollo, reintroducendo le spese generali.

NVMe su RoCE

RoCE promette la latenza di rete più bassa tramite bypass del kernel: le operazioni RDMA vengono completate in circa un microsecondo. Ma RoCE richiede Ethernet senza perdita con Priority Flow Control su ogni switch e adattatore. Una porta mal configurata può causare un calo delle performance. In realtà, molti deployment "RoCE" eseguono iWARP perché il vero RoCE si rivela troppo fragile. Una volta implementato correttamente, RoCE può fornire una latenza di storage di 160-180 microsecondi.

NVMe su TCP

NVMe/TCP viene eseguito su Ethernet standard senza hardware speciale. I critici la considerano "lenta", ma le implementazioni moderne possono raggiungere una latenza dell’ordine di microsecondi di 200-250, più veloce delle unità SSD SATA nonostante l'attraversamento della rete.

Il vantaggio principale: la semplicità. NVMe/TCP funziona con switch, NIC standard e reti di provider cloud esistenti.

Implementazione di NVMe in produzione

La semplice installazione delle unità NVMe raramente offre i vantaggi previsti. L'intero stack di storage deve supportare le operazioni NVMe end-to-end.

Trappola della traduzione del protocollo

Molte organizzazioni acquistano unità SSD NVMe per gli array esistenti e si aspettano una trasformazione. Le unità comunicano tramite NVMe, ma il controller traduce tutto in SCSI per la compatibilità. Questa traduzione aggiunge microsecondi, negando i vantaggi di NVMe.

Requisiti di OS e migrazione

NVMe richiede un sistema operativo moderno Operating System. Ognuna richiede configurazioni specifiche: affinità di interruzione, moduli multipercorso e regolazioni della profondità della coda.

Per una migrazione efficace:

  1. Inizia con i workload non critici per la convalida
  2. Implementa il monitoraggio della latenza a ogni livello
  3. Dai priorità ai database sensibili alla latenza
  4. Verifica NVMe end-to-end con strumenti come NVMe-cli

NVMe per AI e workload moderni

Le GPU costose spesso sono inattive, in attesa di dati. NVMe cambia tutto questo grazie allo storage diretto GPU, consentendo alle unità di trasferire i dati direttamente nella memoria GPU.

Per il training basato sull'AI, questo significa:

  • Addestramento più rapido dell'epoca
  • Scrittura dei checkpoint più rapida
  • Aumento dell'utilizzo della GPU  
  • CPU libera per la pre-elaborazione

I database vanno oltre la velocità raw. La latenza inferiore a 200 microsecondi prevedibile di NVMe elimina l'incertezza nella pianificazione delle query. Gli ottimizzatori prendono decisioni migliori sapendo che i dati arrivano rapidamente. Le applicazioni progettate per lo storage lento si comportano in modo diverso quando lo storage diventa prevedibile.

Il vantaggio NVMe end-to-end di Pure Storage

Mentre il settore discute le strategie di adozione, Pure Storage ha implementato NVMe end-to-end in migliaia di deployment dei clienti, generando una telemetria che rivela ciò che effettivamente funziona. Il fattore di differenziazione sta eliminando ogni traduzione di protocollo tra l'applicazione e il flash NAND.

DirectFlash: Eliminazione delle spese generali nascoste

Le unità SSD NVMe tradizionali contengono controller ridondanti e overprovisioning. I moduli Pure Storage® DirectFlash® espongono la NAND raw direttamente all'interfaccia NVMe dell'array, offrendo:

  • Maggiore capacità utilizzabile
  • Consumo energetico inferiore
  • Latenza prevedibile senza garbage collection
  • Wear Leveling globale su tutti i flash

Architettura NVMe end-to-end

Il software Purity mantiene NVMe da host a NAND, supportando al contempo i sistemi legacy. Per gli host NVMe, fornisce accesso diretto al namespace. Per gli host legacy, si traduce una volta all'edge dell'array, non internamente.

Pure Storage FlashArray//X™ offre una latenza costante inferiore a 200 microsecondi eliminando le conversioni interne dei protocolli:

  • Array Pure Storage: latenza media di 150 μs
  • Array "NVMe" tradizionali con traduzione interna: 400-600 μs
  • La differenza: eliminazione delle spese generali di traduzione del protocollo

Evoluzione non disruptive

L'architettura Pure Storage Evergreen  consente l'adozione di NVMe senza forklift upgrade. Evergreen I controller effettuano l'upgrade a versioni con funzionalità NVMe senza migrazione dei dati.

Il futuro di NVMe

L'evoluzione di NVMe va oltre la velocità. La specifica NVMe 2.0  introduce lo storage computazionale, che viene elaborato all'interno del dispositivo di storage stesso. Il filtraggio dei database, la compressione e l'inferenza AI avvengono dove risiedono i dati, eliminando i costi generali di movimento.

Conclusione

NVMe rappresenta l'eliminazione dei colli di bottiglia artificiali che limitano le applicazioni per decenni. Quando viene implementato end-to-end senza traduzione del protocollo, NVMe offre una latenza dell’ordine di microsecondi di 150 microsecondi che trasforma tutto, dalle transazioni di database alla formazione AI.

Gli insight cruciali: La traduzione dei protocolli elimina i vantaggi di NVMe. NVMe-oF estende i vantaggi tra i data center, ma l'implementazione è importante. I workload moderni richiedono solo la latenza bassa e prevedibile fornita da NVMe end-to-end.

Un'implementazione end-to-end di Pure Storage, convalidata da migliaia di clienti, dimostra che la latenza dell’ordine di microsecondi di 150 secondi è una realtà operativa. Grazie ai  moduli  DirectFlash, le organizzazioni raggiungono le promesse NVMe in termini di performance. Man mano che lo storage si evolve verso capacità di elaborazione e velocità di memoria, l' architettura Pure Storage EvergreenEvergreen garantisce che gli investimenti di oggi forniscano le innovazioni di domani senza interruzioni.

Prova FlashArray//X con il Test Drive

Lavora in un ambiente self-service per scoprire le funzionalità di gestione di Pure FlashArray//X. Esplora le funzionalità avanzate, tra cui snapshot, replica, ActiveCluster™ e persino l'integrazione di VMware.

Richiedi una prova

Potrebbe interessarti anche...

11/2025
FlashBlade Data Protection with Rubrik
Rubrik and Pure Storage have partnered to provide an integrated, performant, and simple-to-manage solution that will enable IT professionals to seamlessly protect and restore content for the Pure Storage FlashBlade™ array.
White paper
28 pages

Esplora risorse e eventi principali

VIDEO
Guarda: Il valore di un Enterprise Data Cloud (EDC).

Charlie Giancarlo spiega perché il futuro è nella gestione dei dati, non dello storage. Scopri in che modo un approccio unificato trasforma le operazioni IT aziendali.

Guarda
RISORSA
Lo storage legacy non può alimentare il futuro.

I workload moderni richiedono velocità, sicurezza e scalabilità AI-ready. Il tuo stack è pronto?

Effettua la valutazione
DEMO DI PURE360
Esplora, scopri e prova Pure Storage.

Accedi a video e demo on demand per scoprire i vantaggi che Pure Storage ti offre.

Guarda le demo
THOUGHT LEADERSHIP
La corsa per l'innovazione

Le più recenti informazioni approfondite e opinioni di leader di settore che sono all'avanguardia nell'innovazione dello storage.

Maggiori informazioni
Il browser che stai usando non è più supportato.

I browser non aggiornati spesso comportano rischi per la sicurezza. Per offrirti la migliore esperienza possibile sul nostro sito, ti invitiamo ad aggiornare il browser alla versione più recente.