Skip to Content
Dismiss
Innovazione
Una piattaforma creata per l'AI

Unificata, automatizzata e pronta a trasformare i dati in intelligence.

Scopri come
Dismiss
16-18 giugno, Las Vegas
Pure//Accelerate® 2026

Scopri come trarre il massimo dai tuoi dati. 

Registrati ora

Che cos'è l'Exascale Computing? Comprendere la nuova frontiera del supercomputing

L'Exascale Computing rappresenta un enorme passo avanti nella potenza computazionale, consentendo a scienziati e ricercatori di affrontare i problemi una volta ritenuti impossibili. 

Questi sistemi, in grado di eseguire 1 quintilione di calcoli al secondo (o 1 exaflop), non sono solo versioni più veloci dei supercomputer esistenti, ma stanno trasformando strumenti che rimodellano settori come la scienza del clima, la sanità e l'astrofisica. Combinando velocità di elaborazione senza precedenti con algoritmi avanzati, i computer in exascale stanno sbloccando nuove frontiere nella simulazione, nella previsione e nel rilevamento.

Continua a leggere per scoprire cosa rende rivoluzionaria questa tecnologia e perché è importante.

Da Petascale a Exascale: L'evoluzione del supercomputing

Il percorso verso l'esascala è iniziato con una semplice domanda: Come possiamo risolvere i problemi più gravi più velocemente? Per decenni, i supercomputer operavano a livello petascale (10.015 operazioni al secondo), ma man mano che le sfide scientifiche diventavano più complesse, dalla modellazione dei sistemi climatici alla simulazione delle interazioni molecolari, i limiti sono diventati evidenti. 

I sistemi Exascale, che sono 1.000 volte più potenti dei loro predecessori petascale, sono emersi come la soluzione a questo collo di bottiglia computazionale. La prima macchina ufficiale per l'esascala, Frontier, è stata lanciata nel 2022 presso l'Oak Ridge National Laboratory e ha segnato un punto di svolta. Con una performance di picco di 1,6 exaflop, Frontier ha dimostrato che l'esascala non era solo teorica, ma era raggiungibile. 

Oggi, sistemi come Aurora (Argonne National Laboratory) ed El Capitan (Lawrence Livermore National Laboratory) stanno spingendo oltre i limiti, con velocità superiori a 2 exaflop.

Innovare la tecnologia: Come funzionano i sistemi Exascale

A differenza dei computer classici, che si basano esclusivamente sulle CPU, le architetture exascale sfruttano l'accelerazione GPU per gestire attività parallele, una necessità di elaborare dataset su scala quintilionale. Infatti, i computer exascale richiedono migliaia di CPU e GPU che lavorano in tandem, alloggiate in strutture di dimensioni pari a quelle dei magazzini. Ad esempio, Frontier utilizza oltre 9.400 nodi, 10.000 CPU e 38.000 GPU per raggiungere performance da record. 

I primi prototipi di exascale hanno dovuto affrontare un ostacolo critico: il consumo energetico. I progetti iniziali prevedevano un fabbisogno energetico equivalente a 50 famiglie, una cifra ridotta a livelli più sostenibili attraverso innovazioni come il raffreddamento a liquido e la progettazione ottimizzata dei chip. I sistemi moderni come Frontier ora funzionano a 15-20 megawatt, bilanciando la potenza raw con le considerazioni ambientali.

Ma l'hardware da solo non è sufficiente. I modelli di programmazione tradizionali faticano a utilizzare migliaia di GPU in modo efficiente. Per risolvere questo problema, progetti come Angstrom del MIT e Exascale Computing Project (ECP) del DOE stanno ridefinendo le architetture software. Strumenti come Kokkos e OpenMP consentono agli sviluppatori di scrivere codice che si adatta dinamicamente ai workload di GPU e CPU, garantendo che le applicazioni possano essere scalate su milioni di core di elaborazione.

Applicazioni del mondo reale: Dove Exascale fa la differenza

Vediamo ora alcune aree in cui l'exascale computing potrebbe portare a grandi innovazioni. 

Modellazione climatica ed energia rinnovabile

I sistemi Exascale stanno rivoluzionando la nostra comprensione del cambiamento climatico. Simulando i processi atmosferici a risoluzioni fino a 1 chilometro (rispetto ai 100 km dei modelli precedenti), i ricercatori possono prevedere gli estremi meteorologici regionali e ottimizzare le reti di energia rinnovabile con una precisione senza precedenti. Ad esempio, il centro CESMIX del MIT utilizza algoritmi predisposti per l'esascala per studiare i materiali per la cattura delle emissioni di carbonio, un passo fondamentale verso il raggiungimento di zero emissioni nette.

Sanità e medicina di precisione

Nella scoperta di nuovi farmaci, le simulazioni su larga scala riducono il tempo necessario per analizzare le interazioni molecolari da anni a giorni. I ricercatori dell'Argonne National Laboratory stanno sfruttando il supercomputer Aurora per modellare il folding delle proteine e identificare potenziali terapie antitumorali, accelerando il percorso dal banco di laboratorio al letto del paziente.

Scopri i segreti dell'universo

La materia oscura, la sostanza invisibile che costituisce l'85% della massa dell'universo, rimane uno dei misteri più grandi della fisica. Utilizzando Aurora, i fisici del MIT eseguono simulazioni con machine learning per prevedere in che modo la materia oscura interagisce con la materia visibile, rimodellando potenzialmente la nostra comprensione cosmica.

Il mercato di Exascale: Crescita e impatto economico

Si prevede che il mercato globale dell'exascale computing, del valore di 4,05 miliardi di dollari nel 2023, raggiungerà i 25,9 miliardi di dollari entro il 2031, trainato dalla domanda nel mondo accademico, sanitario e della sicurezza nazionale. 

Gli enti pubblici di tutto il mondo stanno investendo molto:

  • Dal 2008, il Dipartimento dell'Energia degli Stati Uniti finanzia iniziative di exascale, culminando in sistemi come Frontier ed El Capitan.
  • Il supercomputer Jupiter in Europa, lanciato nel 2024, punta a promuovere la ricerca sui materiali quantistici.
  • Secondo quanto riferito, la Cina gestisce più sistemi di exascale per le applicazioni aerospaziali e di AI.

Aziende come NVIDIA stanno collaborando con i laboratori nazionali degli Stati Uniti per progettare insieme l'hardware su larga scala. Questa sinergia garantisce che le tecnologie commerciali (ad es. gli acceleratori di AI) traggano vantaggio dalla ricerca all'avanguardia e viceversa.

Il futuro: Sfide e indicazioni per il futuro

Sebbene l'esascala stia trasformando, gli scienziati stanno già osservando il prossimo traguardo: la zettascala (10.21 operazioni al secondo). 

Per raggiungere la zettascala occorre:

  • Nuovi materiali: I chip a base di silicio si stanno avvicinando ai limiti fisici. Il progetto Angstrom del MIT esplora i semiconduttori 2D e il calcolo fotonico per ridurre il consumo energetico.
  • Integrazione quantistica: I sistemi ibridi che combinano i processori tradizionali di exascale e quantistici possono risolvere problemi di ottimizzazione intrattabili da soli.
  • AI etica: Man mano che il machine learning permea i workflow su larga scala, assicurarsi che gli algoritmi imparziali diventino cruciali, un'area di attenzione per lo Schwarzman College of Computing del MIT.

Gli attuali sistemi exascale consumano megawatt di potenza, sollevando domande sulla fattibilità a lungo termine. Innovazioni come i chip neuromorfici (che imitano l'efficienza del cervello) e i data center a risparmio energetico sono fondamentali per una crescita sostenibile.

Conclusione: Exascale come catalizzatore per la scoperta

L'Exascale Computing non è solo sinonimo di velocità, ma anche di possibilità. Dalla simulazione della formazione della galassia alla progettazione di farmaci salvavita, questi sistemi stanno ampliando i confini della conoscenza umana. Ci stanno consentendo non solo di risolvere le equazioni più velocemente, ma anche di porre domande che prima non potevamo nemmeno inquadrare e che porteranno a innovazioni inimmaginabili. Sia per i settori che per i ricercatori, l'era dell'esascala promette un futuro in cui le sfide più complesse diventano risolvibili: un quintilione di calcoli alla volta.

Potrebbe interessarti anche...

04/2026
The CIO Playbook for Running VMs on Kubernetes
A strategic guide for CIOs redefining modern virtualization by running enterprise VMs on Kubernetes with Portworx®—securely, at scale, and across hybrid environments.
eBook
15 pages

Esplora risorse ed eventi principali

TRADESHOW
Pure//Accelerate® 2026
June 16-18, 2026 | Resorts World Las Vegas

Preparati all'evento più importante a cui parteciperai quest'anno.

Registrati ora
DEMO DI PURE360
Esplora, scopri e prova Pure Storage.

Accedi a video e demo on demand per scoprire i vantaggi che Pure Storage ti offre.

Guarda le demo
VIDEO
Guarda: Il valore di un Enterprise Data Cloud (EDC).

Charlie Giancarlo spiega perché il futuro è nella gestione dei dati, non dello storage. Scopri in che modo un approccio unificato trasforma le operazioni IT aziendali.

Guarda
RISORSA
Lo storage legacy non può alimentare il futuro.

I workload moderni richiedono velocità, sicurezza e scalabilità AI-ready. Il tuo stack è pronto?

Effettua la valutazione
Il browser che stai usando non è più supportato.

I browser non aggiornati spesso comportano rischi per la sicurezza. Per offrirti la migliore esperienza possibile sul nostro sito, ti invitiamo ad aggiornare il browser alla versione più recente.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Strategie di virtualizzazione pronte per affrontare il futuro

Soluzioni di storage per tutte le tue esigenze

Consenti progetti di AI di qualunque dimensione

Storage a performance elevate per pipeline dei dati, formazione e inferenza

Proteggiti dalla perdita dei dati

Soluzioni di resilienza informatica che proteggono i tuoi dati

Riduci i costi delle operazioni su cloud

Storage efficiente dal punto di vista dei costi per Azure, AWS e private cloud

Accelera le performance di applicazioni e database

Storage a bassa latenza per le performance delle applicazioni

Riduci il consumo di energia e di ingombro del data center

Storage efficiente delle risorse per ottimizzare l'utilizzo dei data center

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.