Skip to Content
Dismiss
Innovación
Una plataforma construida para la IA

Unificado, automatizado y listo para convertir los datos en inteligencia.

Averigüe cómo
Dismiss
16-18 juni, Las Vegas
Pure//Accelerate® 2026

Ontdek hoe u de ware waarde van uw gegevens kunt ontsluiten. 

Schrijf u nu in

¿Qué es la computación a escala? Comprender la próxima frontera de la supercomputación

La computación a gran escala representa un salto monumental en la potencia computacional, lo que permite a los científicos e investigadores abordar los problemas que alguna vez se consideraban imposibles. 

Estos sistemas, capaces de realizar cálculos de 1 quintillón por segundo (o 1 exaflop), no son solo versiones más rápidas de las supercomputadoras existentes, sino que son herramientas transformadoras que reforman campos como la ciencia climática, la atención de la salud y la astrofísica. Al combinar velocidades de procesamiento sin precedentes con algoritmos avanzados, las computadoras a exaescala están desbloqueando nuevas fronteras en simulación, predicción y descubrimiento.

Siga leyendo para explorar qué hace que esta tecnología sea revolucionaria y por qué es importante.

De Petascale a Exascale: La evolución de la supercomputación

El camino hacia la exaescala comenzó con una simple pregunta: ¿Cómo podemos resolver problemas más grandes más rápido? Durante décadas, las supercomputadoras operaban a nivel petaescala (10^15 operaciones por segundo), pero a medida que los desafíos científicos se volvían más complejos, desde modelar sistemas climáticos hasta simular interacciones moleculares, las limitaciones se volvieron evidentes. 

Los sistemas de Exascale, que son 1000 veces más potentes que sus predecesores de petascale, surgieron como la solución para este cuello de botella computacional. Frontier, la primera máquina de exaescala oficial, se lanzó en 2022 en el Laboratorio Nacional Oak Ridge y marcó un punto de inflexión. Con un rendimiento máximo de 1,6 exaflops, Frontier demostró que la exaescala no solo era teórica, sino que era alcanzable. 

En la actualidad, sistemas como Aurora (Argonne National Laboratory) y El Capitan (Lawrence Livermore National Laboratory) están superando los límites, con velocidades que superan los 2 exaflops.

Desglosar la tecnología: Cómo funcionan los sistemas Exascale

A diferencia de las computadoras clásicas, que dependen únicamente de las CPU, las arquitecturas de exaescala aprovechan la aceleración por GPU para manejar tareas paralelas masivas, una necesidad para procesar conjuntos de datos a escala de quintilliones. De hecho, las computadoras a gran escala requieren miles de CPU y GPU que trabajan en conjunto, alojadas en instalaciones del tamaño de los almacenes. Por ejemplo, Frontier utiliza más de 9400 nodos, 10 000 CPU y 38 000 GPU para lograr su rendimiento récord. 

Los primeros prototipos de exaescala se enfrentaron a un obstáculo crítico: el consumo de energía. Los diseños iniciales predijeron demandas de energía equivalentes a 50 hogares, una cifra reducida a niveles más sustentables a través de innovaciones como enfriamiento líquido y diseños optimizados de chips. Los sistemas modernos como Frontier ahora funcionan a 15-20 megavatios, equilibrando la potencia bruta con las consideraciones ambientales.

Pero el hardware por sí solo no es suficiente. Los modelos de programación tradicionales tienen dificultades para utilizar miles de GPU de manera eficiente. Para abordar esto, proyectos como Angstrom del MIT y Exascale Computing Project (ECP) del DOE están replanteando las arquitecturas de software. Herramientas como Kokkos y OpenMP permiten a los desarrolladores escribir códigos que se adapten dinámicamente a las cargas de trabajo de GPU y CPU, lo que garantiza que las aplicaciones puedan escalar a través de millones de núcleos de procesamiento.

Aplicaciones del mundo real: Donde Exascale marca la diferencia

Ahora, veamos algunas áreas en las que la computación a exaescala podría llevar a grandes avances. 

Modelado climático y energía renovable

Los sistemas a gran escala están revolucionando nuestra comprensión del cambio climático. Al simular procesos atmosféricos en resoluciones de hasta 1 kilómetro (frente a 100 km en modelos más antiguos), los investigadores pueden predecir los extremos climáticos regionales y optimizar las redes de energía renovable con una precisión sin precedentes. Por ejemplo, el centro CESMIX del MIT utiliza algoritmos listos para la exaescala para estudiar materiales para la captura de carbono, un paso fundamental para lograr cero emisiones netas.

Atención de la salud y medicina de precisión

En el descubrimiento de fármacos, las simulaciones de exaescala reducen el tiempo necesario para analizar las interacciones moleculares de años a días. Los investigadores del Laboratorio Nacional Argonne están aprovechando la supercomputadora de Aurora para modelar el plegamiento de proteínas e identificar posibles terapias contra el cáncer, lo que acelera el camino desde el banco del laboratorio hasta la cabecera de la cama.

Desbloquear los secretos del universo

La materia oscura, la sustancia invisible que constituye el 85 % de la masa del universo, sigue siendo uno de los mayores misterios de la física. Al usar Aurora, los físicos del MIT están ejecutando simulaciones mejoradas por aprendizaje automático para predecir cómo la materia oscura interactúa con la materia visible, lo que potencialmente reestructura nuestra comprensión cósmica.

El mercado a gran escala: Crecimiento e impacto económico

Se proyecta que el mercado de computación a exaescala global, valuado en $4050 millones en 2023, alcanzará los $25 900 millones para 2031, impulsado por la demanda en el ámbito académico, la salud y la seguridad nacional. 

Los gobiernos de todo el mundo están invirtiendo fuertemente:

  • El Departamento de Energía de los EE. UU. ha financiado iniciativas de exaescala desde 2008, culminando en sistemas como Frontier y El Capitán.
  • La supercomputadora Jupiter de Europa, lanzada en 2024, tiene como objetivo avanzar en la investigación de materiales cuánticos.
  • Según se informa, China opera varios sistemas de exaescala para aplicaciones aeroespaciales y de AI.

Empresas como NVIDIA se están asociando con laboratorios nacionales de los EE. UU. para diseñar conjuntamente hardware a escala externa. Esta sinergia garantiza que las tecnologías comerciales (p. ej., aceleradores de AI) se beneficien de la investigación de vanguardia, y viceversa.

El camino por delante: Desafíos y direcciones futuras

Si bien la exaescala es transformadora, los científicos ya están observando el próximo hito: la escala de zetta (10^21 operaciones por segundo). 

Lograr la escala Zetta requerirá:

  • Nuevos materiales: Los chips basados en silicio se acercan a los límites físicos. El proyecto Angstrom del MIT explora los semiconductores 2D y la computación fotónica para reducir el uso de energía.
  • Integración Quantum: Los sistemas híbridos que combinan procesadores clásicos de exaescala y cuántico podrían resolver problemas de optimización que son intratables solos.
  • AI ética: A medida que el aprendizaje automático impregna los flujos de trabajo exaescalados, garantizar algoritmos imparciales se vuelve fundamental, un área de enfoque para el Schwarzman College of Computing del MIT.

Los sistemas exaescala actuales consumen megavatios de potencia, lo que genera preguntas sobre la viabilidad a largo plazo. Las innovaciones como los chips neuromórficos (que imitan la eficiencia del cerebro) y los centros de datos de bajo consumo son clave para el crecimiento sostenible.

Conclusión: Exascale como catalizador para el descubrimiento

La computación a gran escala no se trata solo de velocidad, se trata de posibilidad. Desde simular la formación de galaxias hasta ayudar con el diseño de fármacos que salvan vidas, estos sistemas están expandiendo los límites del conocimiento humano. Nos permiten no solo resolver ecuaciones más rápido, sino también hacer preguntas que ni siquiera podíamos enmarcar antes, y eso conducirá a avances inimaginables. Tanto para las industrias como para los investigadores, la era de exaescala promete un futuro en el que los desafíos más complejos se puedan resolver: cálculos de un quintillón a la vez.

Buscar recursos y eventos clave

FERIA COMERCIAL
Pure//Accelerate® 2026
June 16-18, 2026 | Resorts World Las Vegas

Prepárese para el evento más valioso al que asistirá este año.

Regístrese ahora
DEMOSTRACIONES DE PURE360
Explore, aprenda y experimente Everpure.

Acceda a videos y demostraciones según demanda para ver lo que Everpure puede hacer.

Mire las demostraciones
VIDEO
Vea: El valor de una Enterprise Data Cloud.

Charlie Giancarlo explica por qué la administración de datos, no el almacenamiento, es el futuro. Descubra cómo un enfoque unificado transforma las operaciones de TI de una empresa.

Mirar ahora
RECURSO
El almacenamiento heredado no puede impulsar el futuro.

Las cargas de trabajo modernas exigen velocidad, seguridad y escalabilidad listas para la AI. ¿Su pila está lista?

Realizar la evaluación
¡Su navegador ya no es compatible!

Los navegadores más antiguos a menudo representan riesgos de seguridad. Para brindar la mejor experiencia posible al utilizar nuestro sitio, actualice a cualquiera de estos navegadores más recientes.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Estrategias de virtualización preparadas para el futuro

Opciones de almacenamiento para todas sus necesidades

Habilite proyectos de IA a cualquier escala.

Almacenamiento de alto rendimiento para procesamiento, capacitación e inferencia de datos

Protección contra la pérdida de datos

Soluciones de ciberresiliencia que protegen sus datos

Reduzca el costo de las operaciones en la nube

Almacenamiento rentable para Azure, AWS y nubes privadas

Acelere el rendimiento de las aplicaciones y las bases de datos

Almacenamiento de baja latencia para el rendimiento de las aplicaciones

Reduzca el consumo de energía y el espacio utilizado por los centros de datos

Almacenamiento eficiente en recursos para mejorar el uso de los centros de datos.

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.