Unificada, automatizada y preparada para convertir los datos en inteligencia.
Descubra cómo extraer el verdadero valor de sus datos.
Los protocolos de almacenamiento diseñados para las unidades mecánicas han limitado el rendimiento del flash durante más de una década. Las unidades de estado sólido proporcionan un hardware con capacidad de microsegundos, pero los protocolos tradicionales como SATA y SAS añaden cientos de microsegundos de latencia innecesaria a través de sus arquitecturas de cola única y sus capas de traducción de protocolos —basados en los puntos de referencia del sector y las implementaciones en el mundo real—.
NVMe (Non-Volatile Memory Express) es un protocolo de almacenamiento diseñado específicamente para las unidades de estado sólido que se conecta directamente a través de la interfaz PCIe, eliminando los cuellos de botella de los protocolos de la era del disco. En lugar de canalizar comandos a través de una única cola como SATA, NVMe permite hasta 64 000 colas con 64 000 comandos cada una, lo que cambia fundamentalmente la manera en que el almacenamiento se comunica con los procesadores multinúcleo modernos.
Pero lo que la mayoría de las discusiones pasan por alto es que el simple hecho de añadir unidades NVMe no es suficiente si su sistema sigue traduciéndose entre protocolos, convirtiendo NVMe en SCSI y de nuevo en varios puntos de la ruta de datos.
Esta guía examina la arquitectura de NVMe, cuantifica sus ventajas de rendimiento en el mundo real y explica por qué es importante la implementación de NVMe de extremo a extremo.
Durante dos décadas, los protocolos de almacenamiento se han diseñado teniendo en cuenta las limitaciones mecánicas. SATA y SAS asumieron que los dispositivos de almacenamiento necesitaban tiempo para buscar físicamente los datos, incorporando una sobrecarga de comandos que tenía sentido cuando los platos de disco tenían que girar a su posición. Estos protocolos canalizan todos los comandos a través de una única cola —adecuada para las búsquedas mecánicas, pero catastrófica para la memoria flash capaz de responder en microsegundos—.
El desajuste del protocolo queda claro en los números. SAS admite hasta 256 comandos (según la especificación SAS-3) en su cola única, mientras que las SSD empresariales gestionan miles de operaciones simultáneas. Estos protocolos tradicionales requieren múltiples capas de traducción: las aplicaciones envían comandos NVMe que se traducen a SCSI, luego a SATA o SAS y luego potencialmente a NVMe a nivel de unidad. Cada traducción añade de 50 a 200 microsegundos de latencia.
NVMe surgió en 2011 para eliminar las penalizaciones por traducción. En lugar de readaptar los protocolos de disco, el consorcio NVM Express diseñó un protocolo que no presupone ningún componente mecánico. NVMe optimiza el conjunto de comandos, eliminando el análisis de la sobrecarga y manteniendo al mismo tiempo una funcionalidad completa.
El protocolo conecta el almacenamiento directamente a las CPU a través de los carriles PCIe, la misma interfaz de alta velocidad utilizada para las tarjetas gráficas. Esto sitúa al almacenamiento como un compañero de otros componentes de alto rendimiento en lugar de relegarlo detrás de las capas de traducción. Con PCIe Gen 4 que proporciona 64GB/s de ancho de banda, NVMe permite que el flash funcione sin limitaciones.
La arquitectura de NVMe se replantea fundamentalmente la comunicación del almacenamiento. En lugar de los adaptadores de bus host tradicionales, el almacenamiento NVMe parece a la CPU como I/O mapeadas por memoria, lo que permite el acceso directo sin sobrecarga de núcleo para las operaciones críticas.
Los procesadores modernos contienen docenas de núcleos, pero los protocolos de almacenamiento tradicionales los canalizan a todos a través de una única cola I/O. NVMe asigna pares de cola dedicados a cada núcleo de CPU, eliminando la contención de bloqueo y permitiendo un verdadero procesamiento paralelo.
Cuando una aplicación necesita datos, coloca comandos en colas de envío a través de sencillas escrituras de memoria, sin necesidad de llamadas al sistema. El controlador NVMe procesa comandos de manera independiente y coloca los resultados en colas de finalización. Este modelo asíncrono significa que las CPU prácticamente no pasan ciclos esperando al almacenamiento.
Los dispositivos NVMe se conectan a través de carriles PCIe y cada carril proporciona un ancho de banda bidireccional. Un SSD NVMe típico utiliza cuatro carriles PCIe, que proporcionan hasta 8GB/s con PCIe Gen 4. Las cabinas empresariales agregan múltiples dispositivos para un rendimiento aún mayor.
Pero el ancho de banda por sí solo no determina el rendimiento. La latencia —el tiempo entre la solicitud y la respuesta— suele ser más importante para las cargas de trabajo transaccionales. La conexión PCIe directa de NVMe elimina múltiples transiciones de bus y conversiones de protocolo que plagan las implementaciones SATA.
El marketing del sector del almacenamiento a menudo hace afirmaciones vagas, como "rápida" o "ultrarreceptiva". Sin embargo, NVMe proporciona ventajas reales.
Según las pruebas del sector y las especificaciones del proveedor, las lecturas flash NAND brutas tardan aproximadamente 100 microsegundos. Sin embargo, las SSD SATA suelen proporcionar latencias totales de 100-200 microsegundos, mientras que las SSD NVMe logran 20-100 microsegundos, lo que demuestra cómo la sobrecarga del protocolo puede igualar o superar el tiempo real de acceso a los medios.
Un único dispositivo NVMe puede proporcionar más de 1 millón de IOPS para lecturas aleatorias de 4KB, un rendimiento que requiere docenas de SSD SATA. Las bases de datos Oracle en NVMe de extremo a extremo NVMe muestran:
La eficiencia de NVMe agrava sus beneficios de rendimiento. Al eliminar la sobrecarga del protocolo:
NVMe over Fabrics amplía los beneficios de NVMe en todos los centros de datos, lo que permite el almacenamiento compartido sin sacrificar las ventajas de latencia. Pero las opciones de implementación afectan drásticamente al rendimiento.
FC-NVMe utiliza la infraestructura SAN existente, lo que la hace atractiva para las empresas que invierten fibre channel. Requiere conmutadores de 5a generación (16 Gb) o de 6a generación (32 Gb) que admitan el reenvío NVMe —los conmutadores más antiguos que afirman que son "compatibles con NVMe" suelen realizar la traducción de protocolos, lo que permite volver a introducir la sobrecarga.
RoCE promete la latencia de red más baja a través de la derivación del núcleo —las operaciones RDMA se completan en aproximadamente un microsegundo—. Pero RoCE requiere Ethernet sin pérdidas con control de flujo prioritario en todos los conmutadores y adaptadores. Un puerto mal configurado puede provocar un colapso del rendimiento. La realidad es que muchas implementaciones de "RoCE" realmente ejecutan iWARP porque la verdadera RoCE es demasiado frágil. Cuando se implementa correctamente, el RoCE puede proporcionar una latencia de almacenamiento de 160-180 microsegundos.
NVMe/TCP se ejecuta sobre Ethernet estándar sin hardware especial. Los críticos lo descartan como "lento", pero las implementaciones modernas pueden lograr una latencia de 200-250 microsegundos —más rápida que las SSD SATA a pesar de atravesar la red.
La ventaja clave es la simplicidad. NVMe/TCP funciona con conmutadores existentes, NIC estándar y redes de proveedores de la nube.
El simple hecho de instalar unidades NVMe rara vez proporciona los beneficios esperados. Toda la pila de almacenamiento debe admitir operaciones NVMe de extremo a extremo.
Muchas organizaciones compran SSD NVMe para las cabinas existentes y esperan una transformación. Las unidades se comunican a través de NVMe, pero el controlador lo traduce todo a SCSI para que sea compatible. Esta traducción añade microsegundos, lo que anula las ventajas de NVMe.
NVMe requiere un Operating System operativo moderno para soportarlo. Cada uno requiere configuraciones específicas —afinidad de interrupción, módulos multirruta y ajustes de profundidad de cola.
Para una migración exitosa:
Las GPU caras suelen estar inactivas, esperando datos. NVMe lo cambia a través del almacenamiento directo de la GPU, lo que permite que las unidades transfieran los datos directamente a la memoria de la GPU.
Para el entrenamiento de IA, esto significa:
Las bases de datos se benefician más allá de la velocidad bruta. La latencia previsible de menos de 200 microsegundos de NVMe elimina la incertidumbre en la planificación de las consultas. Los optimizadores toman mejores decisiones sabiendo que los datos llegan rápidamente. Las aplicaciones diseñadas para el almacenamiento lento se comportan de manera diferente cuando el almacenamiento se vuelve previsible.
Mientras que el sector debate las estrategias de adopción, Pure Storage ha implementado NVMe de extremo a extremo en miles de despliegues de clientes, generando telemetría que revela lo que realmente funciona. El factor diferenciador es eliminar cada traducción de protocolo entre la aplicación y el flash NAND.
Las SSD NVMe tradicionales contienen controladores redundantes y sobreaprovisionamiento. Los módulos DirectFlash® de Pure Storage® exponen la NAND bruta directamente a la interfaz NVMe de la cabina, proporcionando:
El software Purity mantiene la NVMe desde el host hasta la NAND, al tiempo que admite los sistemas tradicionales. Para los hosts NVMe, proporciona acceso directo al espacio de nombres. Para los hosts tradicionales, se traduce una vez en el borde de la cabina, no internamente.
FlashArray//X™ de Pure Storage proporciona una latencia constante de menos de 200 microsegundos al eliminar las conversiones internas de protocolo:
La arquitectura Evergreen de Pure Storage permite la adopción de NVMe sin actualizaciones a gran escala. Los controladores se actualizan a versiones compatibles con NVMe sin migración de datos.
La evolución de NVMe va más allá de la velocidad. La especificación NVMe 2.0 introduce el almacenamiento computacional —el procesamiento dentro del propio dispositivo de almacenamiento—. El filtrado, la compresión y la inferencia de IA de las bases de datos se producen donde están los datos, lo que elimina la sobrecarga de movimiento.
NVMe representa la eliminación de los cuellos de botella artificiales que limitan las aplicaciones durante décadas. Cuando se implementa de extremo a extremo sin traducción de protocolo, NVMe proporciona una latencia de 150 microsegundos que lo transforma todo, desde las operaciones de la base de datos hasta el entrenamiento de IA.
La información crítica: La traducción de protocolos destruye las ventajas de NVMe. NVMe-oF amplía los beneficios en todos los centros de datos, pero la implementación es importante. Las cargas de trabajo modernas requieren la NVMe de extremo a extremo predecible y de baja latencia que solo proporciona.
Una implementación de extremo a extremo de Pure Storage, validada en miles de clientes, demuestra que la latencia de 150 microsegundos es una realidad operativa. A través de los módulosDirectFlash, las organizaciones cumplen las promesas NVMe de rendimiento. A medida que el almacenamiento evoluciona hacia las capacidades computacionales y las velocidades de memoria, la arquitectura de Pure Storage EvergreenEvergreen garantiza que las inversiones actuales ofrezcan las innovaciones del futuro sin disrupciones.
Prepárese para el evento más valioso al que asistirá este año.
Acceda a vídeos y demostraciones bajo demanda para ver lo que Everpure puede hacer.
Charlie Giancarlo explica por qué la gestión de los datos —y no del almacenamiento— es el futuro. Descubra cómo un enfoque unificado transforma las operaciones de TI de la empresa.
Las cargas de trabajo modernas exigen velocidad, seguridad y escala preparadas para la IA. ¿Su stack está listo?