Unificado, automatizado y listo para convertir los datos en inteligencia.
Ontdek hoe u de ware waarde van uw gegevens kunt ontsluiten.
El término “supercomputadora” se refiere a una computadora que funciona con un nivel más alto de rendimiento que una computadora estándar. A menudo, esto significa que la arquitectura, los recursos y los componentes de las supercomputadoras las hacen extremadamente potentes, lo que les brinda la capacidad de funcionar a la tasa operativa más alta posible para las computadoras o cerca de esta.
Las supercomputadoras contienen la mayoría de los componentes clave de una computadora típica, incluido al menos un procesador, dispositivos periféricos, conectores, un sistema operativo y varias aplicaciones. La principal diferencia entre una supercomputadora y una computadora estándar es su poder de procesamiento.
Tradicionalmente, las supercomputadoras eran máquinas simples y superrápidas utilizadas principalmente por empresas empresariales y organizaciones científicas que necesitaban un poder de computación masivo para los cálculos de alta velocidad. Sin embargo, las supercomputadoras actuales pueden consistir en decenas de miles de procesadores que pueden realizar miles de millones, incluso billones, de cálculos por segundo.
En la actualidad, las aplicaciones comunes para las supercomputadoras incluyen la previsión meteorológica, el control de operaciones para reactores nucleares y la criptología. A medida que el costo de la supercomputación ha disminuido, las supercomputadoras modernas también se utilizan para investigaciones de mercado, juegos en línea y aplicaciones de realidad virtual y aumentada.
En 1964, Seymour Cray y su equipo de ingenieros en Control Data Corporation (CDC) crearon CDC 6600, la primera supercomputadora. En ese momento, la plataforma CDC 6600 era 10 veces más rápida que las computadoras normales y tres veces más rápida que la siguiente computadora más rápida, la IBM 7030 Stretch, que realizaba cálculos a velocidades de hasta 3 megaoperaciones de punto flotante por segundo (FLOPS). Aunque eso es lento según los estándares actuales, en ese entonces era lo suficientemente rápido como para llamarse supercomputadora.
Conocido como el “padre de la supercomputación”, Seymour Cray y su equipo lideraron la industria de la supercomputación, lanzando el CDC 7600 en 1969 (160 megaFLOPS), el Cray X-MP en 1982 (800 megaFLOPS) y el Cray 2 en 1985 (1,9 gigaFLOPS).
Posteriormente, otras empresas buscaron hacer que las supercomputadoras fueran más asequibles y desarrollaran procesamiento paralelo masivo (MPP). En 1992, Don Becker y Thomas Sterling, contratistas de la NASA, construyeron el Beowulf, una supercomputadora hecha de un grupo de unidades de computación que trabajan juntas. Fue la primera supercomputadora en usar el modelo de clúster.
Las supercomputadoras actuales utilizan tanto unidades de procesamiento central (CPU) como unidades de procesamiento de gráficos (GPU) que trabajan juntas para realizar cálculos. TOP500 incluye a la supercomputadora Fugaku, con sede en Kobe, Japón, en el Centro de Ciencias Computacionales RIKEN, como la supercomputadora más rápida del mundo, con una velocidad de procesamiento de 442 petaFLOPS.
Las supercomputadoras actuales agregan potencia de computación para ofrecer un rendimiento significativamente mayor que un solo escritorio o servidor para resolver problemas complejos en ingeniería, ciencia y negocios.
A diferencia de las computadoras personales regulares, las supercomputadoras modernas están compuestas por clústeres masivos de servidores, con una o más CPU agrupadas en nodos de procesamiento. Los nodos de procesamiento conforman un procesador (o un grupo de procesadores) y un bloque de memoria, y pueden contener decenas de miles de nodos. Estos nodos se interconectan para comunicarse y trabajar juntos para completar tareas específicas, mientras que los procesos se distribuyen entre miles de procesadores o se ejecutan simultáneamente entre ellos.
Los FLOPS se utilizan para medir el rendimiento de una supercomputadora y para cálculos científicos que utilizan cálculos de punto flotante, es decir, números tan grandes que deben expresarse en exponentes.
Los FLOPS son una medida más precisa que un millón de instrucciones por segundo (MIPS). Como se señaló anteriormente, algunas de las supercomputadoras más rápidas de la actualidad pueden funcionar a más de cien billones de FLOPS (petaFLOPS).
Sin hardware, sin configuración, sin costos: sin problemas. Experiencia en la administración de Everpure FlashBlade, la solución más avanzada del sector que ofrece almacenamiento nativo de archivos y objetos de escalabilidad horizontal.
Una supercomputadora puede contener miles de nodos que usan procesamiento paralelo para comunicarse entre sí para resolver problemas. Pero en realidad existen dos enfoques para el procesamiento paralelo: el multiprocesamiento simétrico (SMP) y el procesamiento paralelo masivo (MPP).
En SMP, los procesadores comparten la memoria y el bus de E/S o la ruta de datos. SMP también se conoce como multiprocesamiento estrechamente acoplado o “sistema de todo compartido”.
MPP coordina el procesamiento de un programa entre varios procesadores que trabajan simultáneamente en diferentes partes del programa. Cada procesador utiliza su propio sistema operativo y memoria. Los procesadores MPP se comunican mediante una interfaz de mensajería que permite enviar mensajes entre procesadores. MPP puede ser complejo, ya que requiere conocimiento sobre cómo particionar una base de datos común y asignar trabajo entre los procesadores. Un sistema MPP se conoce como un sistema “acoplado de forma suelta” o “sin compartir nada”.
Uno de los beneficios de SMP es que permite a las organizaciones prestar servicios a más usuarios de forma más rápida al equilibrar dinámicamente la carga de trabajo entre las computadoras. Los sistemas SMP se consideran más adecuados que los sistemas MPP para el procesamiento de transacciones en línea (OTP), donde muchos usuarios acceden a la misma base de datos (p. ej., procesamiento de transacciones simples). MPP es más adecuado que SMP para aplicaciones que necesitan buscar varias bases de datos en paralelo (p. ej., sistemas de asistencia para la toma de decisiones y aplicaciones de almacenamiento de datos).
Las supercomputadoras se dividen en dos categorías: propósito general y propósito especial. Dentro de estas categorías, las supercomputadoras de uso general pueden dividirse en tres subcategorías:
Las supercomputadoras de propósito especial son supercomputadoras que se han diseñado para lograr una tarea u objetivo en particular. Por lo general, usan circuitos integrados específicos de la aplicación (ASIC) para un mejor rendimiento (p. ej., Deep Blue e Hydra fueron diseñados para jugar juegos como el ajedrez).
Dadas sus ventajas obvias, las supercomputadoras han encontrado una amplia aplicación en áreas como la ingeniería y la investigación científica. Los casos de uso incluyen:
La supercomputación a veces se usa de forma sinónimo de computación de alto rendimiento (HPC). Sin embargo, es más preciso decir que la supercomputación es una solución de HPC, que se refiere al procesamiento de cálculos complejos y grandes utilizados por las supercomputadoras.
HPC le permite sincronizar los cálculos de uso intensivo de datos en varias supercomputadoras en red. Como resultado, los cálculos complejos que utilizan conjuntos de datos más grandes pueden procesarse en mucho menos tiempo de lo que tomaría usar computadoras regulares.
Las supercomputadoras actuales se aprovechan en diversos campos para diversos fines. Algunas de las principales empresas de tecnología del mundo están desarrollando supercomputadoras de AI en anticipación a la función que pueden desempeñar en el metaverso de rápida expansión.
Como resultado, las soluciones de almacenamiento no solo necesitan admitir la recuperación rápida de datos para velocidades de cálculo extremadamente altas, sino que también deben ser lo suficientemente escalables para manejar las demandas de las cargas de trabajo de AI a gran escala con alto rendimiento.
Las tecnologías de realidad virtual y aumentada requieren muchos datos. Al igual que las tecnologías de soporte, como 5G, aprendizaje automático (ML), Internet de las cosas (IoT) y redes neuronales.
Pure Storage® FlashArray//XL ofrece rendimiento y eficacia de primer nivel para cargas de trabajo empresariales, mientras queFlashBlade® es la solución de almacenamiento basado íntegramente en tecnología flash más avanzada del sector. Ambos ofrecen una solución de almacenamiento escalable y robusta que puede potenciar las supercomputadoras más rápidas de la actualidad.
Ambos están disponibles a través de Pure as-a-Service™, una solución de almacenamiento administrado como servicio (STaaS) con un modelo de suscripción simple que le brinda la flexibilidad de escalar la capacidad de almacenamiento según sea necesario.
Pague solo por lo que usa, obtenga lo que necesita cuando lo necesita y manténgase moderno sin interrupciones. Comuníquese con nosotros hoy mismo para obtener más información.
Prepárese para el evento más valioso al que asistirá este año.
Acceda a videos y demostraciones según demanda para ver lo que Everpure puede hacer.
Charlie Giancarlo explica por qué la administración de datos, no el almacenamiento, es el futuro. Descubra cómo un enfoque unificado transforma las operaciones de TI de una empresa.
Las cargas de trabajo modernas exigen velocidad, seguridad y escalabilidad listas para la AI. ¿Su pila está lista?