Skip to Content

Che cos'è la tecnologia HPC (High Performance Computing)?

La tecnologia HPC (High Performance Computing) consente di eseguire calcoli mantenendo la sincronizzazione con molti altri computer connessi in rete. In questo modo è possibile eseguire attività di elaborazione che vanno oltre le capacità di un computer standard, riducendo anche il tempo necessario per completare le operazioni complesse. Spesso la tecnologia HPC è detta supercomputing, e i computer a performance elevate sono chiamati supercomputer.

Con la velocità senza precedenti con cui vengono generati i dati di oggi, il ruolo dell'HPC sta diventando sempre più importante. Secondo le previsioni, i soli dispositivi IoT genereranno quasi 80 zettabyte di dati entro il 2025. Una singola fabbrica che utilizza dispositivi IoT potrebbe generare centinaia di terabyte di dati al giorno. Un singolo computer non è in grado di elaborare un simile volume di dati. Al contrario, l'HPC consente di gestire set di dati enormi, suddividendo le operazioni fra più computer grazie alle funzionalità fornite dal software e dal network.

Ora vediamo in dettaglio perché l'HPC è così importante e come viene utilizzato.

Perché l'HPC è importante?

L'HPC consente di eseguire simulazioni o analisi di volumi di dati enormi, che sarebbero impossibili con i computer standard. A sua volta, questo consente di compiere notevoli passi avanti, ad esempio nel campo della ricerca scientifica, in cui l'HPC ha consentito di scoprire soluzioni all'avanguardia in tutti i settori, dalle cure per il cancro ai vaccini contro il COVID-19. 

Come funziona l'HPC?

Un singolo computer HPC è formato da un gruppo di computer chiamato cluster. Ogni computer di tale cluster prende il nome di nodo. Ciascun nodo è dotato di un sistema operativo che si avvale di un processore con più core, risorse di storage e funzionalità di networking per comunicare con gli altri nodi. Ad esempio, un piccolo cluster può essere formato da 16 nodi con 64 core (quattro core per processore) e questo, grazie alle funzionalità di networking, permette al computer HPC di eseguire calcoli molto più rapidamente di un computer standard. 

Dove viene utilizzato l'HPC?

La tecnologia HPC viene attualmente utilizzata in molti settori diversi e in futuro verrà probabilmente adottata in tutti i settori, per gestire volumi di dati in continuo aumento. L'adozione della tecnologia HPC è stata particolarmente rapida nei settori che hanno l'esigenza di analizzare velocemente set di dati enormi, tra cui:  

  • Ricerca scientifica
  • Astronomia
  • Machine learning
  • Sicurezza informatica
  • Sequenziamento del genoma 
  • Animazione
  • Dinamica molecolare
  • Effetti visivi
  • Servizi finanziari
  • Modellazione dei rischi finanziari
  • Analisi dei dati di mercato
  • Sviluppo prodotti
  • Progettazione greenfield
  • Chimica computazionale
  • Imaging sismico
  • Previsioni meteorologiche
  • Guida autonoma
Evergreen One

Riduci il rischio con Evergreen//One™

Il downtime non è un'opzione. Scegli Pure per soddisfare sempre le richieste di capacità.

Scopri Evergreen//One

Quali sono i fattori alla base dello sviluppo dell'HPC?

L'uso della tecnologia HPC si è diffuso grazie a quattro fattori in particolare:

Potenza di elaborazione

In sostanza, un singolo processore non dispone di tutta la capacità necessaria per elaborare volumi di dati enormi. Il modello HPC consente di produrre i risultati necessari utilizzando più unità di elaborazione in parallelo. Ricorda che in questo modello:

  • L'insieme di più computer connessi in rete prende il nome di cluster.
  • Ogni singola unità di elaborazione all'interno del cluster si chiama nodo.
  • Ogni processore di un nodo dispone di diversi core. 

Ad esempio, un cluster con 16 nodi da quattro core ciascuno è considerato molto piccolo, ma offre un totale di 64 core che lavorano in parallelo.

Oggi, nella maggior parte degli scenari di utilizzo dell'HPC vengono utilizzati migliaia di core che lavorano in parallelo per accelerare il completamento dei processi designati. I provider di servizi Infrastructure-as-a-Service (IaaS) offrono agli utenti la possibilità di sfruttare un numero elevato di nodi quando necessario, per poi ridurre il workload al termine dell'operazione. Gli utenti pagano solamente la potenza di elaborazione richiesta, senza sostenere i costi di capitale (CapEx, capital expenditure) associati alla costruzione dell'infrastruttura. In genere, le soluzioni IaaS permettono agli utenti di definire il layout dei nodi per applicazioni specifiche, se necessario.

Sistema operativo

Il sistema operativo è l'interfaccia tra l'hardware e il software utilizzati in un sistema HPC. I sistemi operativi più diffusi negli ambienti HPC sono Linux e Windows. Per le operazioni HPC viene solitamente utilizzato Linux, mentre Windows viene utilizzato solo quando sono necessarie applicazioni specifiche di Windows. 

Network

In un sistema HPC, la rete connette l'hardware di elaborazione, lo storage necessario e l'utente. L'hardware di elaborazione viene connesso tramite network in grado di gestire larghezze di banda elevatissime per la trasmissione dei dati. Questi network devono presentare anche una latenza ridotta, per accelerare il trasferimento dei dati. La trasmissione dei dati e la gestione dei cluster vengono affidate a cluster manager, servizi di gestione o scheduler. 

Il cluster manager esegue il workload suddividendolo fra le risorse di elaborazione distribuite, come CPU, FPGA, GPU e unità disco. Per consentire al cluster manager di gestirle, tutte queste risorse devono essere connesse alla stessa rete. Quando si utilizzano i servizi di un provider IaaS, quest'ultimo attiva automaticamente tutte le funzioni necessarie per la gestione dell'infrastruttura.

Storage

Infine, i dati elaborati da un sistema HPC devono essere memorizzati in un repository di grandi dimensioni. Poiché i dati possono assumere varie forme (strutturati, semistrutturati e non strutturati), per memorizzarli possono essere necessari diversi tipi di database.

I dati non elaborati vengono memorizzati in un data lake. L'elaborazione di tali dati può essere problematica, perché non sono ancora stati assegnati a uno scopo. I dati ripuliti ed elaborati in funzione di uno scopo specifico vengono memorizzati in un data warehouse

Storage: l'anello mancante nell'HPC

In molti scenari di utilizzo dell'HPC, lo storage, che costituisce un componente cruciale dell'architettura, viene spesso trascurato. La tecnologia HPC viene utilizzata per elaborare enormi quantità di dati in parallelo, ma le sue performance dipendono dalla capacità di interazione di tutti i componenti dell'architettura. 

In genere, le soluzioni di storage legacy tradizionali non consentono di rispondere alle esigenze dell'HPC, creando colli di bottiglia durante il processo e rischiando di pregiudicare le performance. Poiché il data storage deve essere in grado di tenere il passo con la velocità di elaborazione della configurazione, molte architetture HPC si avvalgono dello storage UFFO (Unified Fast File and Object).

Evergreen//One™ offre una soluzione di storage UFFO rapida e affidabile, con tutta la praticità del modello pay-as-you-go (PaYG). Può essere utilizzato negli ambienti on-premise e hybrid cloud ed è perfetto per i sistemi HPC, che richiedono scalabilità per le operazioni senza compromettere le performance.

Acquista Evergreen//One oggi stesso. Per i nuovi clienti i primi tre mesi di servizio sono gratuiti.

CONTATTACI
Domande?

Hai domande o commenti sui prodotti o sulle certificazioni di Pure?  Siamo qui per aiutarti.

Prenota una demo

Prenota una demo per vedere come puoi trasformare i tuoi dati in risultati concreti con Pure. 

Telefono: +39 02 9475 9422

Media: pr@purestorage.com

 

Pure Storage Italia

Spaces c/o Bastioni di Porta Nuova, 21

Milano, 20121

+39 02 9475 9422

italia@purestorage.com

CHIUDI
Il browser che stai usando non è più supportato.

I browser non aggiornati spesso comportano rischi per la sicurezza. Per offrirti la migliore esperienza possibile sul nostro sito, ti invitiamo ad aggiornare il browser alla versione più recente.