Skip to Content
Dismiss
Innovación
Una plataforma construida para la IA

Unificado, automatizado y listo para convertir los datos en inteligencia.

Averigüe cómo
Dismiss
16-18 juni, Las Vegas
Pure//Accelerate® 2026

Ontdek hoe u de ware waarde van uw gegevens kunt ontsluiten. 

Schrijf u nu in

¿Qué es la computación de alto rendimiento?

La computación de alto rendimiento (HPC) es la capacidad de ejecutar la informática de forma sincronizada en un gran número de computadoras en red. HPC permite que se ejecuten procesos informáticos muy grandes para las computadoras comunes, lo que reduce el tiempo que lleva completar grandes operaciones. También se conoce el HPC como supercomputación, y las computadoras de alto rendimiento son conocidas como supercomputadoras.

HPC es especialmente importante por la velocidad sin precedentes a las que se generan los datos hoy. Solo con los dispositivos IoT se espera que se produzcan casi 80 zettabytes de datos para el 2025. Una fábrica con dispositivos IoT podría generar cientos de terabytes de datos cada día. No es posible procesar un volumen de datos tan grande en una sola computadora. Por otra parte, HPC puede manejar una gran cantidad de conjuntos de datos al dividir las operaciones entre varias computadoras con la ayuda del software y las funcionalidades de la red.

Analicemos por qué HPC es importante y de qué forma se usa.

¿Por qué es importante HPC?

HPC permite la simulación o el análisis de grandes volúmenes de datos que, de otra manera, sería imposible de realizar a través de computadoras estándar. Esto, a su vez, lleva a avances más importantes en campos como la investigación científica, donde el uso de HPC genera innovación en todo, desde tratamientos contra el cáncer a vacunas contra COVID-19. 

¿Cómo funciona HPC?

Una computadora única de alto rendimiento se conforma de un grupo de computadoras denominadas clúster. Cada computadora en un clúster se denomina nodo. Cada nodo tiene un sistema operativo que consta de un procesador con varios núcleos, funcionalidades de red y almacenamiento que permiten que los nodos se comuniquen entre ellos. Un pequeño clúster, por ejemplo, puede contar con 16 nodos y 64 núcleos, o cuatro núcleos por procesador, que combinados con funcionalidades de red permiten que la computadora de alto rendimiento calcule con mayor rapidez que una computadora normal. 

¿Dónde se usa HPC?

En la actualidad, se usa HPC en un amplio rango de industrias. En el futuro, es probable que la mayoría de las industrias se pasen a HPC para abordar grandes volúmenes de datos. La adopción de HPC ha sido particularmente robusta en industrias que deben analizar rápidamente grandes conjuntos de datos, entre ellos:  

  • Investigación científica
  • Astronomía
  • Aprendizaje automático
  • Seguridad cibernética
  • Secuenciación genómica 
  • Animación
  • Dinámica molecular
  • Efectos visuales
  • Servicios financieros
  • Modelado de riesgo financiero
  • Análisis de datos del mercado
  • Desarrollo del producto
  • Diseño en áreas nuevas
  • Química informática
  • Imagen sísmica
  • Previsión meteorológica
  • Conducción autónoma
Evergreen One

Reduzca los riesgos con Evergreen//One™

El tiempo de inactividad no es una opción. Puede contar con Pure y asegurarse de que siempre estará listo para cumplir con las demandas de capacidad.

Explore Evergreen//One

¿Qué factores posibilitan la HPC?

En particular, hay cuatro factores que impulsan el uso de la HPC:

Potencia de procesamiento

En palabras simples, el ancho de banda que se requiere para procesar grandes volúmenes de datos no puede ser proporcionado por un único procesador. En cambio, en un modelo HPC, varios centros de procesamiento funcionan en paralelo para ofrecer buenos resultados. Recuerde que en este modelo:

  • El grupo de computadoras individuales que se conectan en red de forma conjunta se denomina clúster.
  • Cada unidad de procesamiento individual en el clúster se denomina nodo.
  • Cada procesador en un nodo tendrá varios núcleos. 

Como ejemplo, un clúster con 16 nodos y cuatro núcleos cada uno es un clúster pequeño, que representa un total de 64 núcleos que funcionan en paralelo.

La mayoría de los casos de uso de HPC actuales incluyen miles de núcleos que funcionan en paralelo para completar los procesos designados en un periodo de tiempo más corto. Los proveedores de infraestructura como servicio (IaaS) ofrecen a los usuarios la posibilidad de aprovechar grande cantidades de nodos cuando se requiere y luego se desconecta la carga de trabajo cuando se completa el requerimiento. Los usuarios solo pagan por la potencia de procesamiento requerida, sin los costos de desembolso de capital (CAPEX) asociados con la construcción de la infraestructura. Con IaaS, los usuarios generalmente tienen la posibilidad de prescribir diseños de nodos para aplicaciones específicas, si se requiere.

Sistema operativo

Los sistemas operativos actúan como la interfaz entre el hardware y el software que se usa en HPC. Los dos sistemas operativos más importantes que se usan en los entornos HPC son Linux y Windows. Linux generalmente se usa para HPC, mientas que Windows se usa solo cuando se requieren aplicaciones específicas de Windows. 

Red

En HPC, la red conecta el hardware informático, el almacenamiento requerido y el usuario. El hardware informático se conecta a través de redes que pueden manejar un gran ancho de banda de datos. Las redes también deben tener una baja latencia para permitir que las transferencias de datos sean más rápidas. Las transmisiones de datos y la administración de clústeres están manejadas por los gerentes del clúster, los servicios de administración y los programadores. 

El gerente del clúster ejecuta la carga de trabajo entre los recursos informáticos distribuidos, como CPU, FPGA, GPU y discos. Todos los recursos deben estar conectados a la misma red para que el gerente del clúster administre los recursos. Cuando se usan servicios de un proveedor IaaS, todas las instalaciones que se requieran para administrar la infraestructura serán aplicadas por el proveedor.

Almacenamiento

Por último, los datos que serán procesados por HPC deben ser almacenados en un repositorio de datos grande. Debido a que los datos pueden tomar diferentes formas (estructurados, semiestructurados y no estructurados), es posible que se requieran diversos tipos de bases de datos para almacenar los datos.

Los datos en su formato sin procesar se almacenan dentro del data lake. Estos datos pueden ser difíciles de procesar debido a que no tienen aún un propósito asignado. Los almacenamientos de datos almacenan datos después de procesar, una vez limpios para adaptarse al propósito específico. 

Almacenamiento: El enlace que falta en HPC

En varios casos de uso de HPC, por lo general se pasa por alto el almacenamiento, una parte crítica de la arquitectura. Se usa HPC cuando se debe procesar una vasta cantidad de datos en paralelo, además su rendimiento depende de si todos los componentes en su arquitectura pueden mantenerse actualizados unos con otros. 

Es posible que las soluciones de almacenamiento heredadas tradicionales no puedan manejar las necesidades de HPC, lo que crea cuellos de botella en el proceso y posiblemente el rendimiento se vea obstaculizado. El almacenamiento de datos debe poder mantener la velocidad de la potencia de procesamiento de la configuración, razón por la que varias arquitecturas de HPC usan el almacenamiento rápido de objetos y archivos unificados (UFFO) .

Evergreen//One™ ofrece almacenamiento UFFO rápido y confiable con la conveniencia del modelo de pago por el tiempo de uso (PaYG). Se puede usar en modelos en las instalaciones y la nube híbrida, y es ideal para los entornos de HPC que requiere la habilidad de escalar operaciones sin comprometer el rendimiento.

Comience hoy con Evergreen//One. Los nuevos clientes obtienen los tres primeros meses de servicio gratis.

Buscar recursos y eventos clave

FERIA COMERCIAL
Pure//Accelerate® 2026
June 16-18, 2026 | Resorts World Las Vegas

Prepárese para el evento más valioso al que asistirá este año.

Regístrese ahora
DEMOSTRACIONES DE PURE360
Explore, aprenda y experimente Everpure.

Acceda a videos y demostraciones según demanda para ver lo que Everpure puede hacer.

Mire las demostraciones
VIDEO
Vea: El valor de una Enterprise Data Cloud.

Charlie Giancarlo explica por qué la administración de datos, no el almacenamiento, es el futuro. Descubra cómo un enfoque unificado transforma las operaciones de TI de una empresa.

Mirar ahora
RECURSO
El almacenamiento heredado no puede impulsar el futuro.

Las cargas de trabajo modernas exigen velocidad, seguridad y escalabilidad listas para la AI. ¿Su pila está lista?

Realizar la evaluación
¡Su navegador ya no es compatible!

Los navegadores más antiguos a menudo representan riesgos de seguridad. Para brindar la mejor experiencia posible al utilizar nuestro sitio, actualice a cualquiera de estos navegadores más recientes.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Estrategias de virtualización preparadas para el futuro

Opciones de almacenamiento para todas sus necesidades

Habilite proyectos de IA a cualquier escala.

Almacenamiento de alto rendimiento para procesamiento, capacitación e inferencia de datos

Protección contra la pérdida de datos

Soluciones de ciberresiliencia que protegen sus datos

Reduzca el costo de las operaciones en la nube

Almacenamiento rentable para Azure, AWS y nubes privadas

Acelere el rendimiento de las aplicaciones y las bases de datos

Almacenamiento de baja latencia para el rendimiento de las aplicaciones

Reduzca el consumo de energía y el espacio utilizado por los centros de datos

Almacenamiento eficiente en recursos para mejorar el uso de los centros de datos.

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.