Según las pruebas de la industria y las especificaciones de los proveedores, las lecturas flash NAND sin procesar tardan aproximadamente 100 microsegundos. Sin embargo, los discos SSD SATA generalmente ofrecen latencias totales de 100 a 200 microsegundos, mientras que los discos SSD NVMe alcanzan de 20 a 100 microsegundos, lo que demuestra cómo la sobrecarga del protocolo puede igualar o superar el tiempo real de acceso a los medios.
IOPS e impacto en el mundo real
Un único dispositivo NVMe puede ofrecer más de 1 millón de IOPS para lecturas aleatorias de 4KB, lo que requiere decenas de SSD SATA. Bases de datos de Oracle sobre el programa NVMe integral:
- Más transacciones por segundo
- Reducción en el tiempo de respuesta a consultas
- Menos eventos de espera relacionados con el almacenamiento
Eficiencia energética
La eficiencia de NVMe agrava sus beneficios de rendimiento. Al eliminar los gastos generales del protocolo:
- SSD SATA: ~10 000 IOPS por vatio
- SSD NVMe: ~50 000 IOPS por vatio
NVMe-oF: Ampliación de NVMe más allá de la conexión directa
NVMe over Fabrics amplía los beneficios de NVMe en los centros de datos, lo que permite el almacenamiento compartido sin sacrificar las ventajas de latencia. Pero las opciones de implementación tienen un impacto radical en el rendimiento.
NVMe sobre canal de fibra (FC-NVMe)
FC-NVMe aprovecha la infraestructura de SAN existente, lo que la hace atractiva para las empresas con inversiones en canales de fibra. Requiere conmutadores de Gen 5 (16 Gb) o Gen 6 (32 Gb) que admitan el reenvío NVMe. Los conmutadores más antiguos que afirman “soporte de NVMe” a menudo realizan la traducción del protocolo y vuelven a introducir la sobrecarga.
NVMe sobre RoCE
RoCE promete la latencia de red más baja a través de la derivación de kernel: las operaciones RDMA se completan en aproximadamente un microsegundo. Pero RoCE requiere Ethernet sin pérdidas con control de flujo prioritario en todos los conmutadores y adaptadores. Un puerto mal configurado puede causar un colapso del rendimiento. La realidad es que muchas implementaciones de “RoCE” en realidad ejecutan iWARP porque el verdadero RoCE resulta demasiado frágil. Cuando se implementa correctamente, RoCE puede ofrecer una latencia de almacenamiento de 160 a 180 microsegundos.
NVMe sobre TCP
NVMe/TCP se ejecuta sobre Ethernet estándar sin hardware especial. Los críticos lo descartan como “lento”, pero las implementaciones modernas pueden lograr una latencia de microsegundo de 200 a 250, más rápido que los SSD SATA a pesar de cruzar las redes.
La ventaja clave: la sencillez. NVMe/TCP funciona con conmutadores existentes, NIC estándar y redes de proveedores de nube.
Implementación de NVMe en la producción
El simple hecho de instalar unidades NVMe rara vez ofrece los beneficios esperados. Toda la pila de almacenamiento debe admitir operaciones NVMe integrales.
La trampa de traducción del protocolo
Muchas organizaciones compran SSD NVMe para matrices existentes y esperan una transformación. Las unidades se comunican a través de NVMe, pero el controlador traduce todo a SCSI para su compatibilidad. Esta traducción agrega microsegundos, lo que anula las ventajas de NVMe.
Requisitos de migración y OS
NVMe requiere un sistema operativo moderno para ser compatible. Cada uno requiere configuraciones específicas: afinidad de interrupción, módulos de varias rutas y ajustes de profundidad de cola.
Para una migración exitosa:
- Comience con cargas de trabajo no críticas para la validación
- Implemente el monitoreo de latencia en cada nivel
- Priorice primero las bases de datos sensibles a la latencia
- Verifique NVMe integral con herramientas como nvme-cli
NVMe para AI y cargas de trabajo modernas
Las GPU costosas a menudo permanecen inactivas, esperando datos. NVMe lo cambia a través del almacenamiento directo de GPU, lo que permite que las unidades transfieran datos directamente a la memoria de GPU.
Para el entrenamiento de AI, esto significa:
- Entrenamiento de época más rápido
- Escritura de puntos de control más rápida
- Mayor utilización de GPU
- CPU liberada para el procesamiento previo
Las bases de datos se benefician más allá de la velocidad bruta. La latencia predecible de NVMe de menos de 200 microsegundos elimina la incertidumbre en la planificación de consultas. Los optimizadores toman mejores decisiones sabiendo que los datos llegan rápidamente. Las aplicaciones diseñadas para el almacenamiento lento se comportan de manera diferente cuando el almacenamiento se vuelve predecible.
La ventaja NVMe integral de Pure Storage
Si bien la industria debate las estrategias de adopción, Pure Storage ha implementado NVMe integral en miles de implementaciones de clientes, lo que genera telemetría que revela lo que realmente funciona. El diferenciador elimina cada traducción de protocolo entre la aplicación y flash NAND.
DirectFlash: Eliminación de gastos generales ocultos
Los SSD NVMe tradicionales contienen controladores redundantes y sobreaprovisionamiento. Los módulos DirectFlash® de Pure Storage® exponen la NAND sin procesar directamente a la interfaz NVMe de la matriz, lo que ofrece:
- Más capacidad utilizable
- Menor consumo de energía
- Latencia predecible sin recolección de basura
- nivelación de desgaste global en todos los flash
Arquitectura NVMe integral
El software Purity mantiene NVMe desde el host a NAND mientras admite sistemas heredados. Para los hosts NVMe, proporciona acceso directo al espacio de nombres. Para los hosts heredados, se traduce una vez en el borde de la matriz, no internamente.
FlashArray//X™ de Pure Storage ofrece una latencia constante de menos de 200 microsegundos al eliminar las conversiones de protocolo internas:
- Matrices de Pure Storage: latencia promedio de 150 μs
- Matrices "NVMe" tradicionales con traducción interna: 400-600 μs
- La diferencia: eliminación de los gastos generales de traducción del protocolo
Evolución sin interrupciones
La arquitectura Evergreen de Pure Storage permite la adopción de NVMe sin actualizaciones costosas. Los controladores se actualizan a versiones compatibles con NVMe sin migración de datos.
El futuro de NVMe
La evolución de NVMe se extiende más allá de la velocidad. La especificación NVMe 2.0 introduce el almacenamiento computacional, el procesamiento dentro del propio dispositivo de almacenamiento. El filtrado de bases de datos, la compresión y la inferencia de AI ocurren donde viven los datos, lo que elimina la sobrecarga de movimiento.
Conclusiones
NVMe representa la eliminación de cuellos de botella artificiales que limitan las aplicaciones durante décadas. Cuando se implementa de extremo a extremo sin traducción de protocolos, NVMe ofrece latencia de microsegundo de 150 que transforma todo, desde transacciones de bases de datos hasta entrenamiento de AI.
Los resultados críticos: La traducción de protocolos destruye las ventajas de NVMe. NVMe-oF amplía los beneficios en los centros de datos, pero la implementación es importante. Las cargas de trabajo modernas requieren la latencia predecible y baja que solo proporciona NVMe integral.
Una implementación integral de Pure Storage, validada por miles de clientes, demuestra que la latencia de microsegundo de 150 es una realidad operativa. A través de los módulosDirectFlash, las organizaciones logran el rendimiento que NVMe promete. A medida que el almacenamiento evoluciona hacia capacidades computacionales y velocidades de memoria, la arquitectura Evergreen de Pure Storage garantiza que las inversiones actuales ofrezcan las innovaciones del futuro sin interrupciones.