Skip to Content

¿Qué es el almacenamiento persistente?

Cuando los contenedores se reinician, las aplicaciones empresariales pierden datos críticos, a menos que haya implementado el almacenamiento persistente correctamente. Este requisito fundamental de infraestructura determina si sus aplicaciones con estado mantienen la integridad de los datos o sufren pérdidas catastróficas durante las operaciones de rutina.

El almacenamiento persistente es un mecanismo de almacenamiento de datos que conserva la información más allá del ciclo de vida de las aplicaciones, los contenedores o los reinicios del sistema. A diferencia del almacenamiento efímero que desaparece cuando finaliza un contenedor, el almacenamiento persistente garantiza que las bases de datos, los sistemas de archivos y el estado de la aplicación sobrevivan, independientemente de los cambios en la infraestructura. Para las organizaciones que ejecutan cargas de trabajo de Kubernetes, esto significa que los volúmenes persistentes mantienen los datos incluso a medida que se crean, destruyen y reprograman los pods en los clústeres. 

El desafío no es solo implementar un almacenamiento persistente, sino hacerlo de manera eficiente a escala empresarial. Los enfoques tradicionales que utilizan almacenamiento escalonado y sistemas basados en disco crean una complejidad innecesaria al mismo tiempo que aumentan los costos. Las arquitecturas modernas basadas íntegramente en tecnología flash ofrecen una mejor economía que la persistencia heredada basada en disco, especialmente cuando se accede regularmente a la mayoría de los datos supuestamente “fríos”.

Esta guía examina el almacenamiento persistente desde la implementación técnica y las perspectivas de la estrategia empresarial. Aprenderá cómo Kubernetes maneja la persistencia a través de StorageClasses y PersistentVolumeClaims, por qué ya no se aplican las suposiciones de almacenamiento tradicional y cómo diseñar un almacenamiento persistente que se escale sin migraciones ni ciclos de actualización.

La evolución del almacenamiento persistente

Los servidores físicos alguna vez garantizaron el acceso permanente al disco local, un lujo que desapareció con la virtualización y la contenedorización. Este cambio cambió fundamentalmente la forma en que las aplicaciones manejan la persistencia de datos.

La virtualización introdujo redes de área de almacenamiento (SAN), lo que permite que las máquinas virtuales migren entre hosts mientras mantienen el acceso a los datos. Esto funcionó para aplicaciones monolíticas, pero creó cuellos de botella cuando las organizaciones necesitaban escalamiento rápido.

Las plataformas de organización de contenedores como Kubernetes transformaron la persistencia nuevamente a través de la abstracción. En lugar de administrar los montajes de LUN o NFS directamente, los desarrolladores solicitan almacenamiento a través de afirmaciones de volumen persistente que se vinculan automáticamente a los volúmenes persistentes disponibles. Esta abstracción permite la portabilidad, pero presenta nuevos desafíos: garantizar la consistencia del rendimiento, administrar las clases de almacenamiento de manera efectiva y evitar la pérdida de datos durante las migraciones de pod.

El cambio a los microservicios amplifica estos retos. Las arquitecturas modernas requieren almacenamiento persistente para docenas de servicios con estado, cada uno con diferentes requisitos de rendimiento. El almacenamiento tradicional por niveles que segrega los datos “calientes” y “fríos” resulta ineficiente cuando los patrones de acceso cambian constantemente.

Cómo funciona el almacenamiento persistente en la infraestructura moderna

El almacenamiento persistente en Kubernetes funciona a través de un nivel de abstracción que separa el aprovisionamiento del almacenamiento del consumo. Esta arquitectura permite que las aplicaciones soliciten almacenamiento sin conocer los detalles de la implementación.

Arquitectura de almacenamiento persistente de Kubernetes

El subsistema de volumen persistente (PV) administra los recursos de almacenamiento independientemente de los ciclos de vida de los pods. Cuando un pod necesita almacenamiento, crea un VolumeClaim (PVC) persistente que especifica la capacidad, el modo de acceso y los requisitos de la clase de almacenamiento. Kubernetes luego hace coincidir esta afirmación con un volumen persistente disponible o aprovisiona dinámicamente uno a través del proveedor de almacenamiento configurado.

Esta unión es permanente: una vez que un PVC se une a un PV, esa relación persiste hasta que se elimina explícitamente. Incluso si el pod se bloquea o migra a otro nodo, los datos permanecen intactos y accesibles. El controlador de la Interfaz de almacenamiento de contenedores (Container Storage Interface, CSI) del proveedor de almacenamiento se encarga de la conexión y el desprendimiento reales de los volúmenes a los nodos.

Clases de almacenamiento y aprovisionamiento dinámico

Las clases de almacenamiento definen diferentes niveles de almacenamiento con características de rendimiento específicas. En lugar de crear volúmenes previamente, los administradores configuran StorageClasses que aprovisionan automáticamente el almacenamiento cuando las aplicaciones lo solicitan. Una empresa típica podría definir:

  • "fast-ssd" para bases de datos que requieren altas IOPS
  • “estándar” para cargas de trabajo generales
  • “archivo” para la retención a largo plazo

El aprovisionamiento dinámico elimina el flujo de trabajo tradicional en el que los administradores crean volúmenes manualmente para cada aplicación. Cuando los desarrolladores implementan aplicaciones con estado con PVC que hacen referencia a StorageClass, el sistema de almacenamiento crea automáticamente volúmenes del tamaño adecuado con características de rendimiento correctas. Esta automatización reduce el tiempo de aprovisionamiento de días a segundos.

Modos de acceso y políticas de recuperación

Los volúmenes persistentes admiten tres modos de acceso:

  • ReadWriteOnce (RWO): Volumen montado como lectura/escritura por un solo nodo
  • Solo lecturaMuchos (ROX): Volumen montado como solo lectura por varios nodos
  • ReadWriteMany (RWX): Volumen montado como lectura/escritura por varios nodos

La política de recuperación determina lo que sucede cuando se elimina un PVC. "Eliminar" elimina tanto el almacenamiento PV como el subyacente, mientras que "Retener" conserva los datos para la limpieza manual. Comprender estas políticas evita la pérdida accidental de datos.

Almacenamiento persistente frente a almacenamiento efímero

La distinción entre el almacenamiento persistente y efímero da forma a las decisiones de arquitectura de aplicaciones. Un malentendido de sus características lleva a la pérdida de datos, problemas de rendimiento y costos innecesarios.

Característica

Almacenamiento persistente

Almacenamiento efímero

Ciclo de vida de los datos

Supervive a los reinicios del pod y las fallas de los nodos

Eliminado cuando finaliza el pod

Rendimiento

IOPS consistentes, latencia de red

IOPS variable, latencia local

Costo

$0.10-0.20/GB/mes típico

Incluido con la computación

Casos de uso

Bases de datos, almacenamiento de archivos, estado de la aplicación

Almacenamiento en caché, archivos temporales, artefactos de construcción

Requisitos de copia de seguridad

Esencial para la continuidad del negocio

No se requiere

Slide

El almacenamiento efímero se destaca por los datos temporales que se pueden regenerar, las capas de imágenes de contenedores, los artefactos de construcción y los archivos de procesamiento temporal. El uso del almacenamiento efímero para estas cargas de trabajo reduce los costos y la complejidad, al mismo tiempo que mejora el rendimiento a través del acceso al disco local.

El almacenamiento persistente se vuelve esencial cuando los datos deben sobrevivir más allá del ciclo de vida de un pod. Más allá de las bases de datos, los registros de aplicaciones para el cumplimiento, las cargas de usuarios y los archivos de configuración requieren persistencia. Las plataformas de monitoreo generan gigabytes de métricas y seguimientos persistentes por aplicación a diario.

El costo oculto de elegir compuestos incorrectos con el tiempo. Las organizaciones que utilizan de forma predeterminada el almacenamiento persistente para todo enfrentan costos de montaje y gastos generales de administración. Aquellos que no aprovisionan lo suficiente corren el riesgo de perder datos cuando el almacenamiento efímero se llena inesperadamente. Asegúrese de analizar los requisitos del ciclo de vida de los datos antes de la implementación, no después de que ocurran los incidentes.

Beneficios y desventajas del almacenamiento persistente

Todas las empresas necesitan datos persistentes, pero el desafío es preservar la integridad y disponibilidad de los datos después de realizar cambios. La mayoría de las bases de datos cuentan con tecnología avanzada para reducir las “lecturas sucias”, lo que hace que los datos incorrectos se devuelvan y posiblemente se almacenen en el disco. Los archivos de registro llevan un registro de las transacciones de la base de datos para evitar la pérdida de integridad de datos.

Las empresas deben tener un plan de almacenamiento de datos para mantener los datos consistentes y seguros. Los datos deben normalizarse para que los datos permanezcan consistentes en todas las aplicaciones y no se actualicen en varios lugares, lo que puede provocar imprecisiones. Todos los datos deben estar seguros mediante reglas de autenticación y autorización, y se deben implementar sistemas de monitoreo para detectar cualquier actividad sospechosa.

El almacenamiento en la nube ofrece una opción flexible para que las empresas mantengan bajos los presupuestos de TI mientras reducen los gastos generales de mantenimiento. Los administradores tienen funciones incorporadas para proteger las copias de seguridad de bases de datos y los datos de producción, y no necesitan mantener el hardware. Las empresas siempre deben tener copias de seguridad de sus datos persistentes, y la nube ofrece la escalabilidad para aumentar la capacidad a medida que se recopilan y almacenan más datos.

Implementación del almacenamiento persistente: Mejores prácticas empresariales

La implementación exitosa requiere una planificación estratégica alineada con los requisitos del negocio. Las organizaciones que apresuran la implementación sin evaluación enfrentan cuellos de botella en el rendimiento, costos inesperados y desafíos de migración.

Evaluación previa a la implementación

Comience por categorizar las cargas de trabajo en tres niveles:

  • Crítico: Bases de datos, registros de transacciones
  • Importante: Estado de la aplicación, datos del usuario
  • Temporal: Caché, procesamiento intermedio

Los requisitos de rendimiento varían radicalmente. Las bases de datos de alto rendimiento pueden necesitar miles de IOPS con latencia de submilisegundos, mientras que un CMS puede funcionar adecuadamente con 1000 IOPS. Documente explícitamente los requisitos: las especificaciones vagas, como el “almacenamiento rápido”, conducen al sobreaprovisionamiento.

Estrategia multinube

Las implementaciones multinube complican el almacenamiento persistente. El rendimiento varía significativamente: un volumen que ofrece 16 000 IOPS en AWS puede lograr diferentes resultados en Azure con especificaciones idénticas.

Las organizaciones que operan en varias nubes a menudo se ocupan de una mayor sobrecarga de administración del almacenamiento. ¿La solución? Estandarice en una única plataforma de administración de datos que abstrae las diferencias de los proveedores mientras mantiene un rendimiento uniforme.

Almacenamiento persistente a escala empresarial

Escalar más allá de la prueba de concepto revela complejidades que las implementaciones básicas nunca encuentran. Los entornos empresariales exigen rendimiento garantizado, cumplimiento normativo y sustentabilidad económica en miles de volúmenes persistentes.

Requisitos de rendimiento para bases de datos de producción

La consistencia de latencia es más importante que la latencia promedio. Base de datos con una latencia promedio de 500 microsegundos, pero picos ocasionales de 50 milisegundos tienen un peor rendimiento que uno con una latencia consistente de 1 milisegundo.

La relación entre el rendimiento del almacenamiento y el rendimiento de la base de datos no es lineal. Duplicar las IOPS de 10 000 a 20 000 solo podría mejorar el rendimiento de las transacciones en un 30 % si la latencia permanece sin cambios. 

La optimización de la profundidad de la cola se vuelve fundamental a escala. El aumento de la profundidad de la cola de 32 a 128 puede mejorar significativamente el rendimiento para cargas de trabajo paralelas, aunque puede aumentar ligeramente la latencia para las operaciones en serie.

Recuperación ante desastres y continuidad del negocio

Los objetivos de tiempo de recuperación (RTO) y los objetivos de punto de recuperación (RPO) impulsan las decisiones de arquitectura. Lograr un RTO de menos de horas requiere replicación sincrónica, lo que duplica los costos de almacenamiento e impacta en el rendimiento debido a retrasos en el reconocimiento de escritura.

La protección basada en snapshots ofrece un punto medio. Los sistemas modernos crean snapshots consistentes en caso de choque cada 15 minutos con un impacto mínimo. Se recomienda que las organizaciones mantengan políticas de retención adecuadas, equilibrando las necesidades de recuperación con los costos de almacenamiento.

La recuperación ante desastres entre regiones agrega complejidad. La física de la red dicta que la replicación de costa a costa agrega de 40 a 50 milisegundos de latencia. Muchas empresas implementan enfoques escalonados: replicación sincrónica localmente para cero RPO, con replicación asincrónica a regiones distantes para la protección contra fallas catastróficas.

Aislamiento de recursos y multiarrendamiento

Las implementaciones de Enterprise Kubernetes alojan a varios equipos en infraestructura compartida, lo que requiere un aislamiento estricto. Las cuotas de almacenamiento evitan la monopolización de la capacidad, pero no abordan el aislamiento del rendimiento. Un trabajo de análisis de datos puede privar bases de datos de IOPS en el mismo backend.

Las políticas de calidad de servicio (QoS) permiten garantizar el rendimiento por inquilino. Las garantías mínimas de IOPS garantizan que las aplicaciones críticas mantengan el rendimiento durante la contención. Los límites máximos de IOPS evitan que las cargas de trabajo fuera de control monopolicen los recursos.

El aislamiento de recursos se extiende a la seguridad y el cumplimiento. Las organizaciones de atención de la salud deben asegurarse de que los datos regulados por la HIPAA permanezcan en sistemas de almacenamiento específicos con encriptación. Los servicios financieros necesitan pruebas de residencia de datos para el cumplimiento regulatorio.

Asegurar el almacenamiento persistente contra Ransomware

Ransomware cada vez más al almacenamiento persistente porque las bases de datos encriptadas paralizan las operaciones. Las estrategias de copia de seguridad tradicionales fallan cuando los atacantes obtienen acceso administrativo y eliminan tanto los datos primarios como las copias de seguridad.

La vulnerabilidad surge del diseño fundamental: los administradores necesitan capacidades de eliminación para el mantenimiento de rutina. Los atacantes con credenciales comprometidas heredan estos privilegios, lo que les permite encriptar volúmenes y eliminar snapshots. Incluso las snapshots "inmutables" en muchos sistemas pueden eliminarse a través de llamadas API o puertas traseras de soporte.

Inmutabilidad arquitectónica para volúmenes persistentes

La verdadera inmutabilidad requiere sistemas de almacenamiento que físicamente no pueden eliminar datos antes de que caduque la retención, independientemente de las credenciales. Este no es un control de acceso basado en roles, es la ausencia total de rutas de código de eliminación. Cuando una instantánea se marca como inmutable durante 30 días, ninguna combinación de llamadas API, intervenciones de asistencia o acceso físico puede eliminarla.

La implementación implica rutas de escritura una vez aplicadas por hardware y verificación criptográfica de las políticas de retención. Los controladores de almacenamiento validan la retención a través de módulos de hardware seguros que el software no puede anular. Esto transforma el almacenamiento persistente de un objetivo de ransomware a una solución de ransomware.

La recuperación con almacenamiento persistente inmutable lleva horas en lugar de semanas. Las organizaciones identifican la última instantánea limpia, restauran volúmenes y reanudan las operaciones. El tiempo medio de recuperación disminuye drásticamente con snapshots inmutables correctamente configuradas.

Almacenamiento persistente para cargas de trabajo de AI y aprendizaje automático

Las cargas de trabajo de AI  enfatizan el almacenamiento persistente de manera única. Los conjuntos de datos de capacitación a menudo superan los 100TB, con modelos que leen conjuntos de datos completos varias veces por época. Los clústeres de GPU que cuestan miles por hora permanecen inactivos cuando el almacenamiento no puede proporcionar datos lo suficientemente rápido, lo que afecta la mayoría de las iniciativas de AI.

El desafío combina ancho de banda, latencia y patrones de acceso simultáneos. La capacitación distribuida puede tener 64 GPU que leen simultáneamente diferentes partes del conjunto de datos mientras escriben puntos de control. Las arquitecturas tradicionales que canalizan I/O a través de algunos controladores crean cuellos de botella, lo que desperdicia costosos procesos informáticos.

Optimización de la utilización de GPU

Las arquitecturas paralelas modernas diseñadas para la AI logran hasta un 98 % de utilización de GPU , mientras que los enfoques tradicionales generalmente no son suficientes. La clave: eliminar los cuellos de botella del controlador a través de arquitecturas de escalabilidad horizontal en las que cada nodo de almacenamiento presta servicios a los datos directamente. Agregar nodos de forma lineal aumenta tanto la capacidad como el rendimiento.

La optimización del punto de control es crucial. Los modelos de lenguaje grande generan más de 1TB de puntos de control que deben escribir sin interrumpir la capacitación. La I/O del punto de control puede afectar significativamente el rendimiento de la capacitación. El almacenamiento de punto de control dedicado con optimización de escritura permite el control paralelo mientras mantiene la utilización de GPU.

La economía del almacenamiento de AI difiere fundamentalmente. Si bien las empresas generalmente optimizan la capacidad por dólar, la AI optimiza la utilización de GPU por dólar. Duplicar la inversión en almacenamiento para mejorar la utilización de GPU del 50 % al 90 % puede ofrecer de manera efectiva un 80 % más de procesamiento sin GPU adicionales. La inversión en almacenamiento se amortiza en semanas.

Consideraciones sobre el proceso de datos

Los procesos de ML requieren almacenamiento persistente que admita varios protocolos simultáneamente. Los científicos de datos usan NFS a través de los cuadernos de Jupyter mientras entrenan el acceso a los trabajos a través de S3. El almacenamiento tradicional obliga a separar las copias por protocolo, triplicar los costos y crear pesadillas de sincronización.

Las plataformas unificadas pueden tener una reducción significativa del almacenamiento a través de la consolidación del protocolo. Un único espacio de nombres accesible a través de cualquier protocolo significa que S3-ingested inmediatamente están disponibles para las herramientas basadas en NFS sin copia. Esto reduce la preparación de datos de días a horas y, al mismo tiempo, reduce drásticamente los requisitos de almacenamiento.

El futuro de la tecnología de almacenamiento persistente

Los ejecutivos de la industria predicen que la industria de flash podría reemplazar completamente la producción de capacidad de toda la industria de discos duros para 2028, lo que hace que el almacenamiento persistente basado íntegramente en tecnología flash sea la única opción. Esto no es solo un cambio tecnológico, es una inevitableidad económica, ya que los precios de flash bajan mientras las unidades de disco alcanzan los límites físicos.

La muerte del almacenamiento por niveles representa el mayor cambio. Cuando todo el almacenamiento se ejecuta en flash con una reducción de datos de 10:1, el argumento económico para niveles más lentos se evapora. Con la mayoría de los datos “fríos” a los que se accede regularmente, los gastos generales por niveles superan los ahorros. Las arquitecturas futuras proporcionarán un rendimiento uniforme para todos los datos.

Memoria persistente y memoria de clase de almacenamiento

Las tecnologías de memoria persistente emergentes desdibujan los límites de almacenamiento de memoria. Si bien las capacidades actualmente limitan las memorias persistentes a los metadatos y el almacenamiento en caché, la tecnología de próxima generación promete módulos a escala de terabytes que reemplazan el almacenamiento tradicional por cargas de trabajo sensibles a la latencia.

Esto permite nuevas arquitecturas de aplicaciones. Las bases de datos mantienen índices en la memoria persistente para las respuestas a consultas de microsegundos. Las colas de mensajes logran millones de operaciones por segundo con total persistencia. El proceso de análisis en tiempo real transmite datos sin la complejidad de la arquitectura lambda.

Autogestión del almacenamiento persistente

AI transforma el almacenamiento persistente de la infraestructura administrada a los sistemas autónomos. Las plataformas modernas analizan volúmenes de telemetría masivos a diario, lo que predice fallas con mucha anticipación y alta precisión. Los sistemas reequilibran automáticamente las cargas de trabajo, optimizan el rendimiento y ordenan piezas de repuesto antes de las fallas.

Las plataformas AIOps reducen los incidentes. Los administradores pasan de la lucha contra incendios a la planificación estratégica. El tiempo medio de resolución disminuye de horas a minutos, a menudo resuelto antes de que las aplicaciones se den cuenta.

En el futuro, el almacenamiento persistente será tan autónomo como los sistemas eléctricos, siempre disponibles, autorrecuperables, sin necesidad de mantenimiento. La sencillez arquitectónica, las operaciones de AI y las plataformas unificadas harán que el almacenamiento sea invisible para las aplicaciones y los administradores.

Conclusiones

El almacenamiento persistente ha evolucionado de matrices de discos básicos a la base de la infraestructura nativa en la nube. El camino de los servidores físicos a los contenedores orquestados por Kubernetes exige repensar la persistencia de los datos, y pasar del almacenamiento escalonado tradicional a plataformas unificadas e inteligentes.

El conocimiento crítico: El éxito persistente del almacenamiento no se trata de administrar la complejidad, se trata de eliminarla. Ya sea que implemente volúmenes persistentes, proteja contra ransomware u optimice las cargas de trabajo de AI, los principios siguen siendo consistentes. Priorice la sencillez arquitectónica, adopte la economía basada íntegramente en tecnología flash y aproveche la automatización. 

Comience por auditar sus clases de almacenamiento e identificar las cargas de trabajo que aún utilizan la persistencia basada en discos. Implemente la inmutabilidad arquitectónica para la protección contra ransomware antes de que ocurran los ataques. Lo que es más importante, estandarice en plataformas unificadas, eliminando los límites artificiales entre el almacenamiento de archivos, bloques y objetos.

Everpure FlashArray™ y FlashBlade® ejemplifican este enfoque moderno, que ofrece latencia uniforme de submilisegundos, reducción de datos 10:1 y administración impulsada por AI, lo que evita problemas antes del impacto. Con las snapshots SafeMode™ que ofrecen protección arquitectónicamente inmutable y almacenamiento Evergreen ™ que nunca requiere migración, las empresas se centran en la innovación en lugar del mantenimiento de la infraestructura. El futuro del almacenamiento persistente es unificado, inteligente y sorprendentemente simple.

Buscar recursos y eventos clave

VIDEO
Vea: El valor de una Enterprise Data Cloud.

Charlie Giancarlo explica por qué la administración de datos, no el almacenamiento, es el futuro. Descubra cómo un enfoque unificado transforma las operaciones de TI de una empresa.

Mirar ahora
RECURSO
El almacenamiento heredado no puede impulsar el futuro.

Las cargas de trabajo modernas exigen velocidad, seguridad y escalabilidad listas para la AI. ¿Su pila está lista?

Realizar la evaluación
DEMOSTRACIONES DE PURE360
Explore, aprenda y experimente Pure Storage.

Acceda a videos y demostraciones según demanda para ver lo que Pure Storage puede hacer.

Mire las demostraciones
LIDERAZGO DE PENSAMIENTO
La carrera de la innovación.

Los últimos conocimientos y perspectivas de líderes de la industria que están a la vanguardia de la innovación en almacenamiento.

Más información
¡Su navegador ya no es compatible!

Los navegadores más antiguos a menudo representan riesgos de seguridad. Para brindar la mejor experiencia posible al utilizar nuestro sitio, actualice a cualquiera de estos navegadores más recientes.

Personalize for Me
Steps Complete!
1
2
3
Thinking...