Skip to Content
Dismiss
Innovazione
Una piattaforma creata per l'AI

Unificata, automatizzata e pronta a trasformare i dati in intelligence.

Scopri come
Dismiss
16-18 giugno, Las Vegas
Pure//Accelerate® 2026

Scopri come trarre il massimo dai tuoi dati. 

Registrati ora

Che cos'è un supercomputer?

Il termine "supercomputer" indica un computer che offre performance nettamente superiori a quelle di un computer standard. In genere, i supercomputer dispongono di architetture, risorse e componenti che ne aumentano considerevolmente la potenza, permettendo di raggiungere le massime performance operative possibili per un computer. 

Un supercomputer contiene la maggior parte dei componenti chiave di un comune computer, tra cui almeno un processore, vari dispositivi periferici, connettori, un sistema operativo e diverse applicazioni. La principale differenza tra un supercomputer e un computer standard è costituita dalla potenza di elaborazione.

Un tempo i supercomputer erano costituiti da singoli sistemi rapidissimi, che venivano utilizzati soprattutto dalle organizzazioni scientifiche e dalle grandi imprese che avevano bisogno di una potenza di elaborazione enorme per eseguire calcoli ad altissima velocità. Oggi, invece, un supercomputer può essere costituito da decine di migliaia di processori che eseguono miliardi, o anche trilioni di calcoli al secondo.

Le tipiche applicazioni dei supercomputer includono attualmente le previsioni meteo, il controllo delle operazioni dei reattori nucleari e la crittologia. Grazie alla diminuzione dei costi, i moderni supercomputer vengono utilizzati anche per le ricerche di mercato, i giochi online e le applicazioni di realtà virtuale e aumentata.

Breve storia dei supercomputer

Il primo supercomputer, il CDC 6600, venne realizzato nel 1964 da Seymour Cray e dal suo team di ingegneri della Control Data Corporation (CDC). Con la sua capacità di eseguire fino a 3 megaFLOP di calcoli al secondo (FLOPS, Floating-Point Operations Per Second), il CDC 6600 era 10 volte più veloce di un normale computer e tre volte più veloce del secondo computer in classifica, l'IBM 7030 Stretch. Anche se sembra poco rispetto agli standard odierni, a quei tempi era abbastanza veloce da meritare il nome di supercomputer. 

Seymour Cray, considerato il "padre del supercomputing", rilasciò successivamente il CDC 7600 nel 1969 (160 megaFLOPS), il Cray X-MP nel 1982 (800 megaFLOPS) e il Cray 2 nel 1985 (1,9 gigaFLOPS), insieme al suo team.

Successivamente altre aziende svilupparono l'elaborazione a elevato parallelismo (MPP, Massively Parallel Processing), per abbattere i costi dei supercomputer. Nel 1992, gli appaltatori della NASA Don Becker e Thomas Sterling realizzarono Beowulf, un supercomputer formato da un cluster di unità di elaborazione che operavano congiuntamente. Fu il primo supercomputer a utilizzare il modello cluster.

I supercomputer di oggi utilizzano CPU (Central Processing Unit) e GPU (Graphics Processing Unit) che operano in sinergia per eseguire i loro calcoli. Secondo TOP500, il supercomputer più veloce del mondo è Fugaku, che si trova presso il RIKEN Center for Computational Science di Kobe in Giappone, con una velocità di elaborazione di 442 petaFLOPS.

Confronto tra supercomputer e PC normali

I supercomputer di oggi utilizzano una potenza di elaborazione aggregata per offrire performance nettamente superiori a quelle di un singolo desktop o server, allo scopo di risolvere complessi problemi di ingegneria, scienza e business.

Diversamente dai comuni PC, i moderni supercomputer sono formati da enormi cluster di server, con una o più CPU raggruppate in nodi di elaborazione. I nodi di elaborazione sono costituiti da un processore (o da un gruppo di processori) e da un blocco di memoria, e possono essere formati da decine di migliaia di nodi. Tali nodi interagiscono per comunicare fra loro e operare in sinergia per completare operazioni specifiche, mentre i processi vengono distribuiti tra migliaia di processori o eseguiti simultaneamente. 

Misurazione delle performance dei supercomputer

Per misurare le performance di un supercomputer e quelle dei calcoli scientifici in virgola mobile (con numeri enormi che devono essere espressi in forma esponenziale), si utilizzano i FLOPS.

Rispetto ai MIPS (Million Instructions Per Second), i FLOPS forniscono una misura più precisa. Come abbiamo accennato prima, alcuni dei supercomputer più veloci di oggi possono eseguire più di cento quadrilioni di FLOPS (petaFLOPS).

Promo del test drive di FlashBlade

Fai un test drive di FlashBlade

Nessun hardware, nessuna configurazione, nessun costo: nessun problema. Scopri la gestione di Everpure FlashBlade, la soluzione più avanzata del settore che offre file e object storage native scale-out.

Provalo subito

Come funziona un supercomputer?

Un supercomputer può contenere migliaia di nodi che utilizzano l'elaborazione parallela per comunicare fra loro e risolvere i problemi. Tuttavia, oggi esistono due diversi approcci all'elaborazione parallela, ovvero i sistemi multiprocessore simmetrici (SMP, Symmetric Multiprocessing) e l'elaborazione a elevato parallelismo (MPP, Massively Parallel Processing). 

Nel caso dell'SMP, i processori condividono la memoria e il bus o il percorso dati di I/O. Questo approccio è noto anche come sistema multiprocessore strettamente accoppiato o "sistema a condivisione totale".

L'MPP, invece, coordina l'elaborazione di un programma fra più processori, che gestiscono simultaneamente parti diverse del programma e sono dotati di memoria e sistemi operativi propri. I processori MPP comunicano attraverso un'interfaccia di messaggistica, che consente lo scambio dei messaggi fra i processori. Questo approccio può risultare molto complesso, poiché occorre sapere come partizionare un comune database e distribuire il lavoro fra i diversi processori. I sistemi MPP sono noti anche come sistemi "debolmente accoppiati" o "senza condivisione".

L'approccio SMP permette alle aziende di servire gli utenti più rapidamente, bilanciando i workload dinamicamente fra più computer. Rispetto ai sistemi MPP, i sistemi SMP sono considerati più adatti all'elaborazione delle transazioni online (OTP, Online Transaction Processing) in cui molti utenti accedono allo stesso database (ad esempio per la semplice elaborazione delle transazioni). D'altro canto, l'MPP si presta meglio dell'SMP alle applicazioni che eseguono ricerche parallele in più database, come i sistemi di supporto decisionale e le applicazioni di data warehouse.

Tipologie di supercomputer

I supercomputer possono essere di due tipi, ovvero generici e specializzati. I supercomputer generici possono essere ulteriormente suddivisi in tre sottocategorie:

Supercomputer generici

  • Computer a elaborazione vettoriale: la maggior parte dei supercomputer utilizzati per le applicazioni scientifiche negli anni '80 e all'inizio degli anni '90 era costituita da computer vettoriali. Oggi non sono più così diffusi, ma i supercomputer attuali utilizzando ancora CPU basate almeno in parte su questo tipo di elaborazione.
  • Computer cluster strettamente connessi: sono gruppi di computer connessi che operano insieme, come una singola unità, e includono i cluster a elevato parallelismo, i cluster basati su director, i cluster a due nodi e i cluster con più nodi. I cluster paralleli e quelli basati su director vengono normalmente utilizzati per l'elaborazione a performance elevate (HPC, High-Performance Computing), mentre i cluster a due o più nodi vengono utilizzati per garantire la tolleranza ai guasti errori.
  • Computer commodity: questa categoria include le disposizioni formate da numerosi PC standard connessi tramite reti locali (LAN, Local Area Network) a banda larga e bassa latenza.

Supercomputer specializzati 

I supercomputer specializzati sono quelli che sono stati espressamente concepiti per svolgere una determinata attività o raggiungere un obiettivo specifico. Solitamente si avvalgono di circuiti ASIC (Application-Specific Integrated Circuit) per aumentare le performance (ad esempio, Deep Blue e Hydra sono stati espressamente realizzati per i giochi, come gli scacchi). 

Scenari di utilizzo dei supercomputer

Dati i loro vantaggi evidenti, i supercomputer vengono ampiamente utilizzati per le applicazioni ingegneristiche e la ricerca scientifica. Gli scenari di utilizzo includono:

  • Studio del clima e meteorologia, allo scopo di prevedere gli effetti degli eventi meteorologici estremi e comprendere gli schemi climatici, come nel caso del sistema National Oceanic and Atmospheric Administration (NOAA)
  • Esplorazione gas-petrolifera, al fine di raccogliere le enormi quantità dei dati sismici e geofisici necessari per trovare e sviluppare i giacimenti di petrolio
  • Settore aeronautico e automobilistico, per progettare simulatori di volo e ambienti automobilistici, oltre che per applicare i principi aerodinamici allo scopo di minimizzare il coefficiente di attrito dell'aria
  • Ricerche sulla fusione nucleare, per la costruzione dei reattori a fusione nucleare e degli ambienti virtuali da utilizzare per testare le esplosioni nucleari e la balistica delle armi
  • Ricerca medica, per sviluppare nuovi farmaci, terapie per il cancro e le malattie genetiche, oltre ai trattamenti per il COVID-19, e per studiare l'origine e l'evoluzione delle epidemie e delle malattie
  • Applicazioni in tempo reale, per garantire le performance dei giochi online durante i tornei e lanci delle nuove versioni dei giochi, solitamente caratterizzati da un picco di utenze

Supercomputing e HPC

Il termine supercomputing viene talvolta utilizzato come sinonimo di High-Performance Computing (HPC). Tuttavia, è più corretto dire che il supercomputing è una soluzione HPC, riferendosi all'elaborazione di calcoli complessi e di grandi dimensioni utilizzata dai supercomputer.

L'HPC permette di sincronizzare i calcoli ad alta intensità di dati su più supercomputer collegati in rete. Questo permette di eseguire calcoli complessi che utilizzano dataset più ampi in un tempo molto inferiore a quello necessario per i normali computer. 

Storage scalabile per il supercomputing

Oggi i supercomputer vengono utilizzati in molti campi diversi e per molti scopi diversi. Alcune delle società tecnologiche più importanti del mondo stanno sviluppando supercomputer AI in vista del ruolo che prevedono di svolgere nel metaverso in rapida espansione.

Di conseguenza, oltre a supportare il recupero rapido di dati al fine di garantire velocità di calcolo elevatissime, le soluzioni di storage devono essere anche abbastanza scalabili da rispondere alle esigenze dei workload AI su vasta scala, continuando a garantire performance elevate.

Le tecnologie di realtà virtuale e aumentata richiedono moltissimi dati, e lo stesso vale anche per le tecnologie di supporto, come il 5G, il machine learning (ML), l'Internet of Things (IoT) e le reti neurali.

Pure Storage® FlashArray//XL offre i massimi livelli di performance ed efficienza per i workload enterprise, mentre  FlashBlade® è la soluzione di storage all-flash più avanzata del settore. Entrambi i prodotti offrono una soluzione di storage affidabile e scalabile, perfetta per i più veloci supercomputer attualmente sul mercato.

Sono entrambi disponibili tramite  Evergreen//One™, una soluzione Storage-as-a-Service (STaaS) gestita accessibile tramite un semplice modello su abbonamento, che garantisce tutta la flessibilità necessaria per espandere la capacità di storage in base alle esigenze del momento. 

Questi prodotti consentono di pagare solo le risorse utilizzate, che vengono messe a disposizione solo quando necessario, garantendo un'innovazione continua senza richiedere alcuna interruzione. Per maggiori informazioni, contattaci oggi stesso.

Potrebbe interessarti anche...

04/2026
Everpure FlashBlade//E | Everpure
FlashBlade//E™️ is an all-flash, capacity-optimized, unified file and object storage platform designed to tackle massive unstructured data growth and management.
Scheda tecnica
3 pages

Esplora risorse ed eventi principali

TRADESHOW
Pure//Accelerate® 2026
June 16-18, 2026 | Resorts World Las Vegas

Preparati all'evento più importante a cui parteciperai quest'anno.

Registrati ora
DEMO DI PURE360
Esplora, scopri e prova Pure Storage.

Accedi a video e demo on demand per scoprire i vantaggi che Pure Storage ti offre.

Guarda le demo
VIDEO
Guarda: Il valore di un Enterprise Data Cloud (EDC).

Charlie Giancarlo spiega perché il futuro è nella gestione dei dati, non dello storage. Scopri in che modo un approccio unificato trasforma le operazioni IT aziendali.

Guarda
RISORSA
Lo storage legacy non può alimentare il futuro.

I workload moderni richiedono velocità, sicurezza e scalabilità AI-ready. Il tuo stack è pronto?

Effettua la valutazione
Il browser che stai usando non è più supportato.

I browser non aggiornati spesso comportano rischi per la sicurezza. Per offrirti la migliore esperienza possibile sul nostro sito, ti invitiamo ad aggiornare il browser alla versione più recente.

Personalize for Me
Steps Complete!
1
2
3
Continue where you left off
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Strategie di virtualizzazione pronte per affrontare il futuro

Soluzioni di storage per tutte le tue esigenze

Consenti progetti di AI di qualunque dimensione

Storage a performance elevate per pipeline dei dati, formazione e inferenza

Proteggiti dalla perdita dei dati

Soluzioni di resilienza informatica che proteggono i tuoi dati

Riduci i costi delle operazioni su cloud

Storage efficiente dal punto di vista dei costi per Azure, AWS e private cloud

Accelera le performance di applicazioni e database

Storage a bassa latenza per le performance delle applicazioni

Riduci il consumo di energia e di ingombro del data center

Storage efficiente delle risorse per ottimizzare l'utilizzo dei data center

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.