Skip to Content
Dismiss
Innovatie
Een platform, gebouwd voor AI

Unified, geautomatiseerd en klaar om data om te zetten in informatie.

Ontdek hoe
Dismiss
16-18 juni, Las Vegas
Pure//Accelerate® 2026

Ontdek hoe u de ware waarde van uw gegevens kunt ontsluiten. 

Schrijf u nu in

Wat is Exascale Computing? De volgende grens van supercomputers begrijpen

Exascale computing vertegenwoordigt een enorme sprong in rekenkracht, waardoor wetenschappers en onderzoekers problemen kunnen aanpakken die ooit onmogelijk werden geacht. 

Deze systemen, die 1 triljoen berekeningen per seconde (of 1 exaflop) kunnen uitvoeren, zijn niet alleen snellere versies van bestaande supercomputers - het zijn transformatieve tools die gebieden als klimaatwetenschap, gezondheidszorg en astrofysica opnieuw vormgeven. Door ongekende verwerkingssnelheden te combineren met geavanceerde algoritmen, ontsluiten exascale computers nieuwe grenzen in simulatie, voorspelling en ontdekking.

Lees verder om te ontdekken wat deze technologie revolutionair maakt en waarom het belangrijk is.

Van Petascale tot Exascale: De evolutie van supercomputing

De reis naar exascale begon met een eenvoudige vraag: Hoe kunnen we grotere problemen sneller oplossen? Decennialang werkten supercomputers op petaschaalniveau (10^15 operaties per seconde), maar naarmate wetenschappelijke uitdagingen complexer werden - van het modelleren van klimaatsystemen tot het simuleren van moleculaire interacties - werden de beperkingen duidelijk. 

Exascale-systemen, die 1.000 keer krachtiger zijn dan hun petascale-voorgangers, kwamen naar voren als de oplossing voor dit rekenknelpunt. De eerste officiële exaschaalmachine, Frontier, werd in 2022 gelanceerd in het Oak Ridge National Laboratory en markeerde een keerpunt. Met een topprestatie van 1,6 exaflops toonde Frontier aan dat exascale niet alleen theoretisch was, het was ook haalbaar. 

Vandaag de dag verleggen systemen zoals Aurora (Argonne National Laboratory) en El Capitan (Lawrence Livermore National Laboratory) grenzen verder, met snelheden van meer dan 2 exaflops.

De technologie doorbreken: Hoe Exascale-systemen werken

In tegenstelling tot klassieke computers, die uitsluitend afhankelijk zijn van CPU's, maken exascale architecturen gebruik van GPU-versnelling om massaal parallelle taken uit te voeren - een noodzaak voor het verwerken van quintillion-scale datasets. In feite vereisen exascale computers duizenden CPU's en GPU's die in combinatie werken, ondergebracht in faciliteiten ter grootte van magazijnen. Frontier gebruikt bijvoorbeeld meer dan 9.400 nodes, 10.000 CPU's en 38.000 GPU's om zijn recordbrekende prestaties te bereiken. 

Vroege exaschaalprototypes hadden te maken met een kritieke hindernis: stroomverbruik. Eerste ontwerpen voorspelden de energiebehoefte die gelijk is aan 50 huishoudens - een cijfer dat tot duurzamere niveaus is teruggebracht door innovaties zoals vloeistofkoeling en geoptimaliseerde chipontwerpen. Moderne systemen zoals Frontier werken nu met 15-20 megawatt, waarbij ruwe stroom wordt afgewogen tegen milieuoverwegingen.

Maar hardware alleen is niet genoeg. Traditionele programmeermodellen hebben moeite om duizenden GPU's efficiënt te gebruiken. Om dit aan te pakken, heroverwegen projecten zoals MIT's Angstrom en het DOE's Exascale Computing Project (ECP) softwarearchitecturen. Tools zoals Kokkos en OpenMP stellen ontwikkelaars in staat om code te schrijven die zich dynamisch aanpast aan GPU- en CPU-workloads, zodat applicaties kunnen schalen over miljoenen verwerkingskernen.

Real-world applicaties: Waar Exascale het verschil maakt

Laten we nu eens kijken naar een paar gebieden waar exascale computing kan leiden tot grote doorbraken. 

Klimaatmodellering en hernieuwbare energie

Exascale-systemen zorgen voor een revolutie in ons begrip van klimaatverandering. Door atmosferische processen te simuleren met resoluties tot 1 kilometer (versus 100 km in oudere modellen), kunnen onderzoekers regionale extreme weersomstandigheden voorspellen en hernieuwbare-energienetwerken met ongekende nauwkeurigheid optimaliseren. Het CESMIX-centrum van MIT gebruikt bijvoorbeeld algoritmen die klaar zijn voor exaschaal om materialen voor koolstofafvang te bestuderen - een cruciale stap naar het bereiken van netto nul uitstoot.

Gezondheidszorg en precisiegeneeskunde

Bij de ontdekking van geneesmiddelen verkorten exaschaalsimulaties de tijd die nodig is om moleculaire interacties van jaren naar dagen te analyseren. Onderzoekers van Argonne National Laboratory maken gebruik van de Aurora-supercomputer om het vouwen van eiwitten te modelleren en potentiële kankerbehandelingen te identificeren, waardoor het pad van labbank naar bed wordt versneld.

De geheimen van het universum ontsluiten

Donkere materie - de onzichtbare stof die 85% van de massa van het universum uitmaakt - blijft een van de grootste mysteries van de natuurkunde. Met behulp van Aurora voeren MIT-fysici simulaties uit met machine learning om te voorspellen hoe donkere stof omgaat met zichtbare stof, waardoor ons kosmische begrip mogelijk opnieuw vorm krijgt.

De Exascale-markt: Groei en economische impact

De wereldwijde markt voor exascale computing, met een waarde van $ 4,05 miljard in 2023, zal naar verwachting $ 25,9 miljard bereiken in 2031, gedreven door de vraag in de academische wereld, de gezondheidszorg en de nationale veiligheid. 

Overheden wereldwijd investeren zwaar:

  • Het Amerikaanse ministerie van Energie financiert al sinds 2008 exaschaalinitiatieven, met als hoogtepunt systemen als Frontier en El Capitan.
  • De Europese Jupiter-supercomputer, gelanceerd in 2024, heeft als doel het onderzoek naar kwantummaterialen te bevorderen.
  • China heeft naar verluidt meerdere exaschaalsystemen voor ruimtevaart- en AI-toepassingen.

Bedrijven zoals NVIDIA werken samen met Amerikaanse nationale laboratoria om exascale hardware te co-ontwerpen. Deze synergie zorgt ervoor dat commerciële technologieën (bijv. AI-accelerators) profiteren van geavanceerd onderzoek, en vice versa.

De weg vooruit: Uitdagingen en toekomstrichtingen

Hoewel exascale transformerend is, kijken wetenschappers al naar de volgende mijlpaal: zettascale (10^21 operaties per seconde). 

Het bereiken van zettascale vereist:

  • Nieuwe materialen: Siliciumchips naderen fysieke grenzen. Het Angstrom-project van MIT onderzoekt 2D-halfgeleiders en fotonische computing om het energieverbruik te verminderen.
  • Quantum-integratie: Hybride systemen die klassieke exaschaal- en kwantumprocessoren combineren, kunnen optimalisatieproblemen oplossen die voor beide afzonderlijk hardnekkig zijn.
  • Ethische AI: Naarmate machine learning doordringt in exaschaalworkflows, wordt het garanderen van onbevooroordeelde algoritmen van cruciaal belang - een aandachtsgebied voor het Schwarzman College of Computing van MIT.

De huidige exaschaalsystemen verbruiken megawatt stroom, waardoor vragen rijzen over de levensvatbaarheid op lange termijn. Innovaties zoals neuromorfe chips (die de efficiëntie van de hersenen nabootsen) en energie-efficiënte datacenters zijn de sleutel tot duurzame groei.

Conclusie: Exascale als katalysator voor ontdekking

Exascale computing gaat niet alleen over snelheid, maar ook over mogelijkheden. Van het simuleren van melkwegvorming tot het helpen bij het ontwerp van levensreddende geneesmiddelen, deze systemen verleggen de grenzen van menselijke kennis. Ze stellen ons in staat om niet alleen vergelijkingen sneller op te lossen, maar ook vragen te stellen die we voorheen niet eens konden omkaderen - en dat zal leiden tot onvoorstelbare doorbraken. Voor zowel industrieën als onderzoekers belooft het exaschaaltijdperk een toekomst waarin de meest complexe uitdagingen oplosbaar worden - één triljoen berekeningen per keer.

04/2026
The CIO Playbook for Running VMs on Kubernetes
A strategic guide for CIOs redefining modern virtualization by running enterprise VMs on Kubernetes with Portworx®—securely, at scale, and across hybrid environments.
E-book
15 pagina's

Blader door belangrijke resources en evenementen

BEURS
Pure//Accelerate® 2026
June 16-18, 2026 | Resorts World Las Vegas

Maak je klaar voor het meest waardevolle evenement dat je dit jaar zult bijwonen.

Schrijf u nu in
PURE360 DEMO’S
Ontdek, leer en ervaar Everpure.

Krijg toegang tot on-demand video's en demo's om te zien wat Everpure kan doen.

Demo’s bekijken
VIDEO
Bekijk: De waarde van een Enterprise Data Cloud

Charlie Giancarlo over waarom het beheren van data en niet opslag de toekomst zal zijn. Ontdek hoe een uniforme aanpak de IT-activiteiten van bedrijven transformeert.

Nu bekijken
RESOURCE
Legacy-storage kan de toekomst niet aandrijven.

Moderne workloads vragen om AI-ready snelheid, beveiliging en schaalbaarheid. Is uw stack er klaar voor?

Doe de assessment
Uw browser wordt niet langer ondersteund!

Oudere browsers vormen vaak een veiligheidsrisico. Om de best mogelijke ervaring te bieden bij het gebruik van onze site, dient u te updaten naar een van deze nieuwste browsers.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Toekomstbestendige virtualisatiestrategieën

Opslagmogelijkheden voor al uw behoeften

AI-projecten op elke schaal mogelijk maken

Krachtige opslag voor datapijplijnen, training en inferentie

Bescherm tegen dataverlies

Cyberweerbaarheidsoplossingen die uw data beschermen

Kosten van cloudactiviteiten verlagen

Kostenefficiënte opslag voor Azure, AWS en private clouds

Versnel de prestaties van applicaties en databases

Opslag met lage latentie voor applicatieprestaties

Verminder het stroomverbruik in het datacenter

Efficiënte opslag van middelen om het gebruik van datacenters te verbeteren

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.