El término “superordenador" se refiere a un ordenador que funciona con un nivel de rendimiento superior al de un ordenador estándar. A menudo, eso significa que la arquitectura, los recursos y los componentes de los superordenadores hacen que estos sean extremadamente potentes, lo que les permite tener un rendimiento que llega o se aproxima a la velocidad funcional máxima que pueden alcanzar los ordenadores.
Los superordenadores contienen la mayoría de los componentes clave de un ordenador estándar, lo que incluye al menos un procesador, dispositivos periféricos, conectores, un sistema operativo y varias aplicaciones. La principal diferencia entre un superordenador y un ordenador estándar es su potencia de procesamiento.
Tradicionalmente, los superordenadores eran equipos individuales y superrápidos, usados sobre todo por las empresas mercantiles y las organizaciones científicas que necesitaban una potencia de computación muy grande para realizar cálculos a una velocidad altísima. Sin embargo, los superordenadores actuales pueden estar formados por decenas de miles de procesadores que pueden efectuar miles de millones —incluso billones— de cálculos por segundo.
Actualmente, entre las aplicaciones habituales de los superordenadores se incluyen las previsiones meteorológicas, el control de las operaciones de los reactores nucleares y la criptología. Como el coste de la supercomputación ha disminuido, los superordenadores modernos también se usan para los estudios de mercado, los juegos online y las aplicaciones de realidad virtual y aumentada.
En 1964, Seymour Cray y su equipo de ingenieros de la Control Data Corporation (CDC) crearon el CDC 6600, el primer superordenador. En ese momento, el CDC 6600 era 10 veces más rápido que los ordenadores normales y tres veces más rápido que el siguiente ordenador más veloz —el IBM 7030 Stretch— y efectuaba cálculos a velocidades de hasta 3 mega-operaciones de coma flotante por segundo (FLOPS). Aunque es una velocidad lenta para los estándares actuales, en aquella época era lo bastante rápida para considerarlo un superordenador.
Conocido como el “padre de la supercomputación”, Seymour Cray y su equipo lideraron el sector de la supercomputación y lanzaron el CDC 7600 en 1969 (160 mega-FLOPS), el Cray X-MP en 1982 (800 mega-FLOPS) y el Cray 2 en 1985 (1,9 giga-FLOPS).
Posteriormente, otras empresas trataron de lograr que los superordenadores fueran más asequibles y desarrollaron el procesamiento paralelo masivo (MPP). En 1992, Don Becker y Thomas Sterling, contratistas de la NASA, crearon el Beowulf, un superordenador compuesto por un clúster de ordenadores individuales que trabajaban conjuntamente. Fue el primer superordenador que utilizó el modelo de clúster.
Los superordenadores actuales utilizan unidades centrales de procesamiento (CPU) y unidades de procesamiento gráfico (GPU), que trabajan conjuntamente para efectuar los cálculos. Según el TOP500, el superordenador Fugaku, que se encuentra en Kobe, Japón, en el Centro de Ciencia Computacional RIKEN, es el superordenador más rápido del mundo, con una velocidad de procesamiento de 442 peta-FLOPS.
Los superordenadores actuales agregan potencia de computación para proporcionar un rendimiento mucho mayor que el de un ordenador personal o un servidor, para resolver problemas complejos del ámbito de la ingeniería, la ciencia y la empresa.
A diferencia de los ordenadores personales normales, los superordenadores modernos están formados por clústeres enormes de servidores, con una o más CPU agrupadas en nodos de cálculo. Los nodos de cálculo comprenden un procesador (o un grupo de procesadores) y un bloque de memoria y pueden contener decenas de miles de nodos. Estos nodos están interconectados para comunicarse y trabajar conjuntamente para completar tareas específicas, mientras que los procesos están distribuidos o se ejecutan simultáneamente en miles de procesadores.
Los FLOPS se usan para medir el rendimiento de un superordenador y para los cómputos científicos que utilizan los cálculos de coma flotante, es decir, unos números tan grandes que tienen que expresarse como exponentes.
Los FLOPS son una medida más exacta que el millón de instrucciones por segundo (MIPS). Tal como se ha mencionado más arriba, algunos de los superordenadores más rápidos de la actualidad pueden funcionar a una velocidad de más de cien mil billones de FLOPS (peta-FLOPS).
No hardware, no setup, no cost—no problem. Experience a self-service instance of Pure1® to manage Pure FlashBlade™, the industry's most advanced solution delivering native scale-out file and object storage.
Un superordenador puede contener miles de nodos que usan el procesamiento paralelo para comunicarse entre sí y resolver problemas. Pero en realidad hay dos enfoques del procesamiento paralelo: el multiprocesamiento simétrico (SMP) y el procesamiento paralelo masivo (MPP).
En el SMP, los procesadores comparten memoria y el bus de /S o ruta de datos. El SMP también se conoce como multiprocesamiento fuertemente acoplado o “sistema con todo compartido” (shared everything).
El MPP coordina el procesamiento de un programa entre múltiples procesadores que trabajan simultáneamente en diferentes partes del programa. Cada procesador utiliza su propio sistema operativo y su propia memoria. Los procesadores MPP se comunican usando una interfaz de mensajería que permite que se envíen mensajes entre los procesadores. El MPP puede ser complejo y hay que saber cómo realizar una partición de una base de datos común y cómo asignar los trabajos a los distintos procesadores. Los sistemas MPP se conocen como sistemas “ligeramente acoplados” o sistemas “sin compartición” (shared nothing).
Una de las ventajas del SMP es que permite que las organizaciones den servicio a más usuarios más rápidamente, al equilibrar de manera dinámica la carga de trabajo entre los ordenadores. Se considera que los sistemas SMP son más adecuados que los sistemas MPP para el procesamiento de transacciones online (OTP), en el que varios usuarios acceden a la misma base de datos (por ejemplo, el procesamiento de transacciones simples). El MPP está más indicado que el SMP para las aplicaciones que necesitan buscar en paralelo en varias bases de datos (por ejemplo, los sistemas de apoyo para la toma de decisiones y las aplicaciones de almacenamiento de datos).
Los superordenadores se dividen en dos categorías: de uso general y de uso especial. A su vez, los superordenadores de uso general pueden dividirse en tres subcategorías:
Los superordenadores de uso especial son superordenadores que se han desarrollado para realizar una tarea o lograr un objetivo específicos. Normalmente utilizan circuitos integrados específicos de aplicación (ASIC) para lograr un mejor rendimiento (por ejemplo, tanto el Deep Blue como el Hydra se desarrollaron para jugar a juegos como el ajedrez).
Teniendo en cuenta sus ventajas evidentes, los superordenadores se utilizan ampliamente en ámbitos como la ingeniería y la investigación científica. Estos son algunos de sus casos de uso:
La supercomputación a veces se usa como un sinónimo de la computación de alto rendimiento (o HPC por sus siglas en inglés). Sin embargo, es más exacto decir que la supercomputación es una solución de HPC, que se refiere al procesamiento de cálculos grandes y complejos utilizado por los superordenadores.
La HPC le permite sincronizar cálculos que usan muchos datos entre múltiples superordenadores conectados en red. Gracias a ello, los cálculos complejos que usan grandes conjuntos de datos pueden procesarse en mucho menos tiempo del que necesitarían los ordenadores normales.
Los superordenadores actuales se utilizan en una gran variedad de campos para múltiples fines. Algunas de las principales empresas tecnológicas mundiales están desarrollando superordenadores de IA para anticiparse al papel que desempeñarán en un metaverso en plena expansión.
Debido a ello, las soluciones de almacenamiento no solo tienen que admitir la rápida recuperación de los datos para permitir unas velocidades de computación extremadamente altas, sino que también deben ser lo suficientemente escalables para hacer frente a las demandas de las cargas de trabajo de la IA a gran escala con un alto rendimiento.
Las tecnologías de realidad virtual y aumentada necesitan muchos datos. Algo que también es aplicable a otras tecnologías, como el 5G, el aprendizaje automático (AA), el Internet de las cosas (IdC) y las redes neuronales.
FlashArray//XL de Pure Storage® proporciona un rendimiento y una eficiencia de nivel superior para las cargas de trabajo empresariales, mientras que FlashBlade® es la solución de almacenamiento totalmente flash más avanzada del sector. Ambas ofrecen una solución de almacenamiento escalable y resistente, perfecta para el funcionamiento de los superordenadores más rápidos de la actualidad.
Las dos están disponibles a través de Pure as-a-Service™, una solución de almacenamiento como servicio (STaaS) administrada, con un modelo de suscripción simple que le proporciona la flexibilidad de escalar la capacidad de almacenamiento en función de sus necesidades.
Pague solo por lo que usa, obtenga lo que necesita cuando lo necesite y manténgase actualizado sin disrupciones. Contacte con nosotros hoy mismo para obtener más información.