Secondo i test del settore e le specifiche dei vendor, le letture flash NAND raw richiedono circa 100 microsecondi. Tuttavia, le unità SSD SATA in genere forniscono latenze totali di 100-200 microsecondi, mentre le unità SSD NVMe raggiungono i 20-100 microsecondi, dimostrando come il overhead del protocollo può essere uguale o superiore al tempo di accesso effettivo ai supporti.
IOPS e impatto sul mondo reale
Un singolo dispositivo NVMe può fornire oltre 1 milione di IOPS per letture casuali da 4KB, con performance che richiedono decine di unità SSD SATA. I database Oracle su NVMe end-to-end mostrano:
- Più transazioni al secondo
- Riduzione dei tempi di risposta alle query
- Meno eventi di attesa correlati allo storage
Efficienza energetica
L'efficienza di NVMe aumenta i vantaggi in termini di performance. Eliminando le spese generali del protocollo:
- SSD SATA: ~10.000 IOPS per watt
- SSD NVMe: ~50.000 IOPS per watt
NVMe-oF: Estensione di NVMe oltre Direct Attachment
NVMe over Fabrics estende i vantaggi NVMe tra i data center, consentendo lo storage condiviso senza sacrificare i vantaggi di latenza. Tuttavia, le scelte di implementazione influiscono notevolmente sulle performance.
NVMe over fibre channel (FC-NVMe)
FC-NVMe sfrutta l'infrastruttura SAN esistente, rendendola attraente per le aziende con investimenti in fibre channel. Richiede switch Gen 5 (16 Gb) o Gen 6 (32 Gb) che supportano l'inoltro NVMe; gli switch precedenti che affermano "supporto NVMe" spesso eseguono la traduzione del protocollo, reintroducendo le spese generali.
NVMe su RoCE
RoCE promette la latenza di rete più bassa tramite bypass del kernel: le operazioni RDMA vengono completate in circa un microsecondo. Ma RoCE richiede Ethernet senza perdita con Priority Flow Control su ogni switch e adattatore. Una porta mal configurata può causare un calo delle performance. In realtà, molti deployment "RoCE" eseguono iWARP perché il vero RoCE si rivela troppo fragile. Una volta implementato correttamente, RoCE può fornire una latenza di storage di 160-180 microsecondi.
NVMe su TCP
NVMe/TCP viene eseguito su Ethernet standard senza hardware speciale. I critici la considerano "lenta", ma le implementazioni moderne possono raggiungere una latenza dell’ordine di microsecondi di 200-250, più veloce delle unità SSD SATA nonostante l'attraversamento della rete.
Il vantaggio principale: la semplicità. NVMe/TCP funziona con switch, NIC standard e reti di provider cloud esistenti.
Implementazione di NVMe in produzione
La semplice installazione delle unità NVMe raramente offre i vantaggi previsti. L'intero stack di storage deve supportare le operazioni NVMe end-to-end.
Trappola della traduzione del protocollo
Molte organizzazioni acquistano unità SSD NVMe per gli array esistenti e si aspettano una trasformazione. Le unità comunicano tramite NVMe, ma il controller traduce tutto in SCSI per la compatibilità. Questa traduzione aggiunge microsecondi, negando i vantaggi di NVMe.
Requisiti di OS e migrazione
NVMe richiede un sistema operativo moderno Operating System. Ognuna richiede configurazioni specifiche: affinità di interruzione, moduli multipercorso e regolazioni della profondità della coda.
Per una migrazione efficace:
- Inizia con i workload non critici per la convalida
- Implementa il monitoraggio della latenza a ogni livello
- Dai priorità ai database sensibili alla latenza
- Verifica NVMe end-to-end con strumenti come NVMe-cli
NVMe per AI e workload moderni
Le GPU costose spesso sono inattive, in attesa di dati. NVMe cambia tutto questo grazie allo storage diretto GPU, consentendo alle unità di trasferire i dati direttamente nella memoria GPU.
Per il training basato sull'AI, questo significa:
- Addestramento più rapido dell'epoca
- Scrittura dei checkpoint più rapida
- Aumento dell'utilizzo della GPU
- CPU libera per la pre-elaborazione
I database vanno oltre la velocità raw. La latenza inferiore a 200 microsecondi prevedibile di NVMe elimina l'incertezza nella pianificazione delle query. Gli ottimizzatori prendono decisioni migliori sapendo che i dati arrivano rapidamente. Le applicazioni progettate per lo storage lento si comportano in modo diverso quando lo storage diventa prevedibile.
Il vantaggio NVMe end-to-end di Pure Storage
Mentre il settore discute le strategie di adozione, Pure Storage ha implementato NVMe end-to-end in migliaia di deployment dei clienti, generando una telemetria che rivela ciò che effettivamente funziona. Il fattore di differenziazione sta eliminando ogni traduzione di protocollo tra l'applicazione e il flash NAND.
DirectFlash: Eliminazione delle spese generali nascoste
Le unità SSD NVMe tradizionali contengono controller ridondanti e overprovisioning. I moduli Pure Storage® DirectFlash® espongono la NAND raw direttamente all'interfaccia NVMe dell'array, offrendo:
- Maggiore capacità utilizzabile
- Consumo energetico inferiore
- Latenza prevedibile senza garbage collection
- Wear Leveling globale su tutti i flash
Architettura NVMe end-to-end
Il software Purity mantiene NVMe da host a NAND, supportando al contempo i sistemi legacy. Per gli host NVMe, fornisce accesso diretto al namespace. Per gli host legacy, si traduce una volta all'edge dell'array, non internamente.
Pure Storage FlashArray//X™ offre una latenza costante inferiore a 200 microsecondi eliminando le conversioni interne dei protocolli:
- Array Pure Storage: latenza media di 150 μs
- Array "NVMe" tradizionali con traduzione interna: 400-600 μs
- La differenza: eliminazione delle spese generali di traduzione del protocollo
Evoluzione non disruptive
L'architettura Pure Storage Evergreen consente l'adozione di NVMe senza forklift upgrade. Evergreen I controller effettuano l'upgrade a versioni con funzionalità NVMe senza migrazione dei dati.
Il futuro di NVMe
L'evoluzione di NVMe va oltre la velocità. La specifica NVMe 2.0 introduce lo storage computazionale, che viene elaborato all'interno del dispositivo di storage stesso. Il filtraggio dei database, la compressione e l'inferenza AI avvengono dove risiedono i dati, eliminando i costi generali di movimento.
Conclusione
NVMe rappresenta l'eliminazione dei colli di bottiglia artificiali che limitano le applicazioni per decenni. Quando viene implementato end-to-end senza traduzione del protocollo, NVMe offre una latenza dell’ordine di microsecondi di 150 microsecondi che trasforma tutto, dalle transazioni di database alla formazione AI.
Gli insight cruciali: La traduzione dei protocolli elimina i vantaggi di NVMe. NVMe-oF estende i vantaggi tra i data center, ma l'implementazione è importante. I workload moderni richiedono solo la latenza bassa e prevedibile fornita da NVMe end-to-end.
Un'implementazione end-to-end di Pure Storage, convalidata da migliaia di clienti, dimostra che la latenza dell’ordine di microsecondi di 150 secondi è una realtà operativa. Grazie ai moduli DirectFlash, le organizzazioni raggiungono le promesse NVMe in termini di performance. Man mano che lo storage si evolve verso capacità di elaborazione e velocità di memoria, l' architettura Pure Storage EvergreenEvergreen garantisce che gli investimenti di oggi forniscano le innovazioni di domani senza interruzioni.