Il termine "supercomputer" indica un computer che offre performance nettamente superiori a quelle di un computer standard. In genere, i supercomputer dispongono di architetture, risorse e componenti che ne aumentano considerevolmente la potenza, permettendo di raggiungere le massime performance operative possibili per un computer.
Un supercomputer contiene la maggior parte dei componenti chiave di un comune computer, tra cui almeno un processore, vari dispositivi periferici, connettori, un sistema operativo e diverse applicazioni. La principale differenza tra un supercomputer e un computer standard è costituita dalla potenza di elaborazione.
Un tempo i supercomputer erano costituiti da singoli sistemi rapidissimi, che venivano utilizzati soprattutto dalle organizzazioni scientifiche e dalle grandi imprese che avevano bisogno di una potenza di elaborazione enorme per eseguire calcoli ad altissima velocità. Oggi, invece, un supercomputer può essere costituito da decine di migliaia di processori che eseguono miliardi, o anche trilioni di calcoli al secondo.
Le tipiche applicazioni dei supercomputer includono attualmente le previsioni meteo, il controllo delle operazioni dei reattori nucleari e la crittologia. Grazie alla diminuzione dei costi, i moderni supercomputer vengono utilizzati anche per le ricerche di mercato, i giochi online e le applicazioni di realtà virtuale e aumentata.
Il primo supercomputer, il CDC 6600, venne realizzato nel 1964 da Seymour Cray e dal suo team di ingegneri della Control Data Corporation (CDC). Con la sua capacità di eseguire fino a 3 megaFLOP di calcoli al secondo (FLOPS, Floating-Point Operations Per Second), il CDC 6600 era 10 volte più veloce di un normale computer e tre volte più veloce del secondo computer in classifica, l'IBM 7030 Stretch. Anche se sembra poco rispetto agli standard odierni, a quei tempi era abbastanza veloce da meritare il nome di supercomputer.
Seymour Cray, considerato il "padre del supercomputing", rilasciò successivamente il CDC 7600 nel 1969 (160 megaFLOPS), il Cray X-MP nel 1982 (800 megaFLOPS) e il Cray 2 nel 1985 (1,9 gigaFLOPS), insieme al suo team.
Successivamente altre aziende svilupparono l'elaborazione a elevato parallelismo (MPP, Massively Parallel Processing), per abbattere i costi dei supercomputer. Nel 1992, gli appaltatori della NASA Don Becker e Thomas Sterling realizzarono Beowulf, un supercomputer formato da un cluster di unità di elaborazione che operavano congiuntamente. Fu il primo supercomputer a utilizzare il modello cluster.
I supercomputer di oggi utilizzano CPU (Central Processing Unit) e GPU (Graphics Processing Unit) che operano in sinergia per eseguire i loro calcoli. Secondo TOP500, il supercomputer più veloce del mondo è Fugaku, che si trova presso il RIKEN Center for Computational Science di Kobe in Giappone, con una velocità di elaborazione di 442 petaFLOPS.
I supercomputer di oggi utilizzano una potenza di elaborazione aggregata per offrire performance nettamente superiori a quelle di un singolo desktop o server, allo scopo di risolvere complessi problemi di ingegneria, scienza e business.
Diversamente dai comuni PC, i moderni supercomputer sono formati da enormi cluster di server, con una o più CPU raggruppate in nodi di elaborazione. I nodi di elaborazione sono costituiti da un processore (o da un gruppo di processori) e da un blocco di memoria, e possono essere formati da decine di migliaia di nodi. Tali nodi interagiscono per comunicare fra loro e operare in sinergia per completare operazioni specifiche, mentre i processi vengono distribuiti tra migliaia di processori o eseguiti simultaneamente.
Per misurare le performance di un supercomputer e quelle dei calcoli scientifici in virgola mobile (con numeri enormi che devono essere espressi in forma esponenziale), si utilizzano i FLOPS.
Rispetto ai MIPS (Million Instructions Per Second), i FLOPS forniscono una misura più precisa. Come abbiamo accennato prima, alcuni dei supercomputer più veloci di oggi possono eseguire più di cento quadrilioni di FLOPS (petaFLOPS).
Nessun hardware, nessuna configurazione, nessun costo: nessun problema. Prova l'esperienza di un'istanza self-service di Pure1® per gestire Pure FlashBlade™, la soluzione più avanzata del settore che offre file e object storage native scale-out.
Un supercomputer può contenere migliaia di nodi che utilizzano l'elaborazione parallela per comunicare fra loro e risolvere i problemi. Tuttavia, oggi esistono due diversi approcci all'elaborazione parallela, ovvero i sistemi multiprocessore simmetrici (SMP, Symmetric Multiprocessing) e l'elaborazione a elevato parallelismo (MPP, Massively Parallel Processing).
Nel caso dell'SMP, i processori condividono la memoria e il bus o il percorso dati di I/O. Questo approccio è noto anche come sistema multiprocessore strettamente accoppiato o "sistema a condivisione totale".
L'MPP, invece, coordina l'elaborazione di un programma fra più processori, che gestiscono simultaneamente parti diverse del programma e sono dotati di memoria e sistemi operativi propri. I processori MPP comunicano attraverso un'interfaccia di messaggistica, che consente lo scambio dei messaggi fra i processori. Questo approccio può risultare molto complesso, poiché occorre sapere come partizionare un comune database e distribuire il lavoro fra i diversi processori. I sistemi MPP sono noti anche come sistemi "debolmente accoppiati" o "senza condivisione".
L'approccio SMP permette alle aziende di servire gli utenti più rapidamente, bilanciando i workload dinamicamente fra più computer. Rispetto ai sistemi MPP, i sistemi SMP sono considerati più adatti all'elaborazione delle transazioni online (OTP, Online Transaction Processing) in cui molti utenti accedono allo stesso database (ad esempio per la semplice elaborazione delle transazioni). D'altro canto, l'MPP si presta meglio dell'SMP alle applicazioni che eseguono ricerche parallele in più database, come i sistemi di supporto decisionale e le applicazioni di data warehouse.
I supercomputer possono essere di due tipi, ovvero generici e specializzati. I supercomputer generici possono essere ulteriormente suddivisi in tre sottocategorie:
I supercomputer specializzati sono quelli che sono stati espressamente concepiti per svolgere una determinata attività o raggiungere un obiettivo specifico. Solitamente si avvalgono di circuiti ASIC (Application-Specific Integrated Circuit) per aumentare le performance (ad esempio, Deep Blue e Hydra sono stati espressamente realizzati per i giochi, come gli scacchi).
Dati i loro vantaggi evidenti, i supercomputer vengono ampiamente utilizzati per le applicazioni ingegneristiche e la ricerca scientifica. Gli scenari di utilizzo includono:
Il termine supercomputing viene talvolta utilizzato come sinonimo di High-Performance Computing (HPC). Tuttavia, è più corretto dire che il supercomputing è una soluzione HPC, riferendosi all'elaborazione di calcoli complessi e di grandi dimensioni utilizzata dai supercomputer.
L'HPC permette di sincronizzare i calcoli ad alta intensità di dati su più supercomputer collegati in rete. Questo permette di eseguire calcoli complessi che utilizzano dataset più ampi in un tempo molto inferiore a quello necessario per i normali computer.
Oggi i supercomputer vengono utilizzati in molti campi diversi e per molti scopi diversi. Alcune delle società tecnologiche più importanti del mondo stanno sviluppando supercomputer AI in vista del ruolo che prevedono di svolgere nel metaverso in rapida espansione.
Di conseguenza, oltre a supportare il recupero rapido di dati al fine di garantire velocità di calcolo elevatissime, le soluzioni di storage devono essere anche abbastanza scalabili da rispondere alle esigenze dei workload AI su vasta scala, continuando a garantire performance elevate.
Le tecnologie di realtà virtuale e aumentata richiedono moltissimi dati, e lo stesso vale anche per le tecnologie di supporto, come il 5G, il machine learning (ML), l'Internet of Things (IoT) e le reti neurali.
Pure Storage® FlashArray//XL offre i massimi livelli di performance ed efficienza per i workload enterprise, mentre FlashBlade® è la soluzione di storage all-flash più avanzata del settore. Entrambi i prodotti offrono una soluzione di storage affidabile e scalabile, perfetta per i più veloci supercomputer attualmente sul mercato.
Sono entrambi disponibili tramite Evergreen//One™, una soluzione Storage-as-a-Service (STaaS) gestita accessibile tramite un semplice modello su abbonamento, che garantisce tutta la flessibilità necessaria per espandere la capacità di storage in base alle esigenze del momento.
Questi prodotti consentono di pagare solo le risorse utilizzate, che vengono messe a disposizione solo quando necessario, garantendo un'innovazione continua senza richiedere alcuna interruzione. Per maggiori informazioni, contattaci oggi stesso.
Hai domande o commenti sui prodotti o sulle certificazioni di Pure? Siamo qui per aiutarti.
Prenota una demo per vedere come puoi trasformare i tuoi dati in risultati concreti con Pure.
Telefono: +39 02 9475 9422
Media: pr@purestorage.com
Pure Storage Italia
Spaces c/o Bastioni di Porta Nuova, 21
Milano, 20121