Skip to Content
Dismiss
Innovatie
Een platform, gebouwd voor AI

Unified, geautomatiseerd en klaar om data om te zetten in informatie.

Ontdek hoe
Dismiss
16-18 juni, Las Vegas
Pure//Accelerate® 2026

Ontdek hoe u de ware waarde van uw gegevens kunt ontsluiten. 

Schrijf u nu in

Wat is een supercomputer?

De term "supercomputer" verwijst naar een computer die op een hoger prestatieniveau werkt dan een standaardcomputer. Vaak betekent dit dat de architectuur, de middelen en de componenten van supercomputers hen extreem krachtig maken, waardoor zij kunnen presteren op of in de buurt van de hoogst mogelijke operationele snelheid voor computers. 

Supercomputers bevatten de meeste belangrijke onderdelen van een gewone computer, waaronder ten minste één processor, randapparatuur, aansluitingen, een besturingssysteem en diverse toepassingen. Het grote verschil tussen een supercomputer en een standaardcomputer is de verwerkingskracht.

Traditioneel waren supercomputers afzonderlijke, supersnelle machines die voornamelijk werden gebruikt door ondernemingen en wetenschappelijke organisaties die een enorme rekenkracht nodig hadden voor zeer snelle berekeningen. De supercomputers van vandaag kunnen echter bestaan uit tienduizenden processoren die miljarden of zelfs triljoenen berekeningen per seconde kunnen uitvoeren.

Tegenwoordig worden supercomputers onder meer gebruikt voor weersvoorspellingen, operationele controle van kernreactoren en cryptologie. Nu de kosten van supercomputers zijn gedaald, worden moderne supercomputers ook gebruikt voor marktonderzoek, online gaming en virtuele en augmented reality-toepassingen.

Een korte geschiedenis van de supercomputer

In 1964 creëerden Seymour Cray en zijn team van ingenieurs bij Control Data Corporation (CDC) de CDC 6600, de eerste supercomputer. Destijds was de CDC 6600 10 keer sneller dan gewone computers en drie keer sneller dan de volgende snelste computer - de IBM 7030 Stretch - die berekeningen uitvoerde met snelheden tot 3 mega floating-point operations per seconde (FLOPS). Hoewel dat naar huidige maatstaven langzaam is, was het toen snel genoeg om een supercomputer genoemd te worden. 

Seymour Cray en zijn team staan bekend als de "vader van de supercomputers" en leidden de supercomputersector met de CDC 7600 in 1969 (160 megaFLOPS), de Cray X-MP in 1982 (800 megaFLOPS) en de Cray 2 in 1985 (1,9 gigaFLOPS).

Andere bedrijven probeerden vervolgens supercomputers betaalbaarder te maken en ontwikkelden massaal parallelle verwerking (MPP). In 1992 bouwden Don Becker en Thomas Sterling, aannemers bij NASA, de Beowulf, een supercomputer die bestaat uit een cluster van samenwerkende computereenheden. Het was de eerste supercomputer die het clustermodel gebruikte.

De huidige supercomputers gebruiken zowel centrale verwerkingseenheden (CPU's) als grafische verwerkingseenheden (GPU's) die samenwerken om berekeningen uit te voeren. De Fugaku supercomputer, gevestigd in Kobe, Japan, bij het RIKEN Center for Computational Science, is volgens de TOP500 de snelste supercomputer ter wereld, met een verwerkingssnelheid van 442 petaFLOPS.

Supercomputers vs. gewone pc’s

De supercomputers van vandaag bundelen rekenkracht om aanzienlijk hogere prestaties te leveren dan een enkele desktop of server om complexe problemen op het gebied van techniek, wetenschap en bedrijfsleven op te lossen.

In tegenstelling tot gewone personal computers bestaan moderne supercomputers uit enorme clusters van servers, met één of meer CPU's gegroepeerd in rekenknooppunten. Compute nodes bestaan uit een processor (of een groep processoren) en een geheugenblok en kunnen tienduizenden nodes bevatten. Deze knooppunten zijn onderling verbonden om te communiceren en samen te werken om specifieke taken uit te voeren, terwijl processen worden verdeeld over of gelijktijdig worden uitgevoerd door duizenden processoren. 

Hoe de prestaties van supercomputers worden gemeten

FLOPS worden gebruikt om de prestaties van een supercomputer te meten en voor wetenschappelijke berekeningen waarbij floating-point-berekeningen worden gebruikt, d.w.z. getallen die zo groot zijn dat ze in exponenten moeten worden uitgedrukt.

FLOPS zijn een nauwkeurigere maatstaf dan een miljoen instructies per seconde (MIPS). Zoals hierboven vermeld, kunnen sommige van de snelste supercomputers van vandaag meer dan honderd quadriljoen FLOPS (petaFLOPS) presteren.

Test Drive FlashBlade Promo

Probeer FlashBlade

Geen hardware, geen setup, geen kosten, dus geen problemen. Ervaar het beheer van een Everpure FlashBlade: de meest geavanceerde oplossing op de markt voor native scale-out file- en objectstorage.

Probeer nu

Hoe werkt een supercomputer?

Een supercomputer kan duizenden knooppunten bevatten die via parallelle verwerking met elkaar communiceren om problemen op te lossen. Maar er zijn eigenlijk twee benaderingen van parallelle verwerking: symmetrische multiprocessing (SMP) en massaal parallelle verwerking (MPP). 

In SMP delen de processoren het geheugen en de /O-bus of het datapad. SMP staat ook bekend als tightly coupled multiprocessing of wordt een "shared everything system" genoemd.

MPP coördineert de verwerking van een programma tussen meerdere processoren die tegelijkertijd aan verschillende delen van het programma werken. Elke processor gebruikt zijn eigen besturingssysteem en geheugen. MPP-processoren communiceren via een berichteninterface waarmee berichten tussen processoren kunnen worden verzonden. MPP kan complex zijn en vereist kennis van de wijze waarop een gemeenschappelijke database moet worden gepartitioneerd en het werk over de processoren moet worden verdeeld. Een MPP-systeem staat bekend als een "losjes gekoppeld"- of "gedeeld niets"-systeem.

Een voordeel van SMP is dat organisaties meer gebruikers sneller kunnen bedienen door de workload dynamisch over de computers te verdelen. SMP-systemen worden geschikter geacht dan MPP-systemen voor online transactieverwerking (OTP), waarbij veel gebruikers toegang hebben tot dezelfde database (bv. eenvoudige transactieverwerking). MPP is beter geschikt dan SMP voor toepassingen die meerdere databanken parallel moeten doorzoeken (bv. beslissingsondersteunende systemen en toepassingen voor datawarehouses).

Soorten supercomputers

Supercomputers vallen uiteen in twee categorieën: voor algemene doeleinden en voor speciale doeleinden. Binnen deze categorieën kunnen supercomputers voor algemene doeleinden worden onderverdeeld in drie subcategorieën:

Supercomputers voor algemene doeleinden

  • Vectorverwerkingscomputers: De meeste supercomputers in de jaren '80 en begin jaren '90 waren vectorcomputers. Ze zijn tegenwoordig niet meer zo populair, maar de huidige supercomputers hebben nog steeds CPU's die enige vectorverwerking gebruiken.
  • Strak verbonden clustercomputers: Dit zijn groepen verbonden computers die samenwerken als een eenheid en omvatten massaal parallelle clusters, director-gebaseerde clusters, clusters met twee knooppunten en clusters met meerdere knooppunten. Parallelle en director-gebaseerde clusters worden gewoonlijk gebruikt voor krachtige verwerking, terwijl clusters met twee of meer knooppunten worden gebruikt voor fouttolerantie.
  • Commoditycomputers: Deze omvatten regelingen van talrijke standaard personal computers (PC's) die verbonden zijn door lokale netwerken met hoge bandbreedte en lage latentie (LAN's).

Supercomputers voor speciale doeleinden 

Supercomputers voor speciale doeleinden zijn supercomputers die zijn gebouwd om een bepaalde taak of een bepaald doel te bereiken. Zij maken gewoonlijk gebruik van toepassingsspecifieke geïntegreerde schakelingen (ASIC's) voor betere prestaties (Deep Blue en Hydra werden bijvoorbeeld beide gebouwd voor het spelen van spelletjes zoals schaken). 

Use cases supercomputer

Gezien hun duidelijke voordelen hebben supercomputers een brede toepassing gevonden op gebieden zoals engineering en wetenschappelijk onderzoek. Use cases zijn onder meer:

  • Weer- en klimaatonderzoek: Om de gevolgen van extreme weersomstandigheden te voorspellen en inzicht te verkrijgen in klimaatpatronen, zoals in het systeem van de National Oceanic and Atmospheric Administration (NOAA)
  • Olie- en gasexploratie: Om enorme hoeveelheden geofysische seismische data te verzamelen om olievoorraden te helpen vinden en ontwikkelen.
  • Luchtvaart- en auto-industrie: Vluchtsimulatoren en gesimuleerde auto-omgevingen ontwerpen, en aerodynamica toepassen voor de laagste luchtweerstandscoëfficiënt.
  • Onderzoek naar kernfusie: Om kernfusiereactoren en virtuele omgevingen te bouwen voor het testen van kernexplosies en wapenballistiek
  • Medisch onderzoek: Ontwikkeling van nieuwe geneesmiddelen, therapieën voor kanker en zeldzame genetische aandoeningen, en behandelingen voor COVID-19, alsmede voor onderzoek naar het ontstaan en de evolutie van epidemieën en ziekten.
  • Realtime toepassingen: Om de online spelprestaties op peil te houden tijdens toernooien en nieuwe spelreleases wanneer er veel gebruikers zijn.

Supercomputers en HPC

Supercomputing wordt soms synoniem gebruikt met high-performance computing (HPC). Het is echter nauwkeuriger om te zeggen dat supercomputing een HPC-oplossing is, verwijzend naar de verwerking van complexe en grote berekeningen die door supercomputers worden gebruikt.

Met HPC kunt u data-intensieve berekeningen synchroniseren op meerdere supercomputers in een netwerk. Daardoor kunnen complexe berekeningen met grotere datasets in veel minder tijd worden uitgevoerd dan met gewone computers. 

Schaalbare opslag voor supercomputers

De supercomputers van vandaag worden op allerlei gebieden voor uiteenlopende doeleinden gebruikt. Enkele van 's werelds beste technologiebedrijven ontwikkelen AI-supercomputers in afwachting van de rol die zij kunnen spelen in de snel groeiende metaverse.

Als gevolg daarvan moeten opslagoplossingen niet alleen snelle opvraging van data voor extreem hoge rekensnelheden ondersteunen, maar ook schaalbaar genoeg zijn om de eisen van grootschalige AI-workloads met hoge prestaties aan te kunnen.

Voor virtuele en augmented reality-technologieën zijn veel data nodig. Net als ondersteunende technologieën, zoals 5G, machine learning (ML), het internet of things (IoT) en neurale netwerken.

Pure Storage® FlashArray//XL levert top-tier prestaties en efficiëntie voor enterprise workloads, terwijl FlashBlade® de meest geavanceerde all-flash-opslagoplossing op de markt is. Beide bieden een schaalbare, robuuste opslagoplossing die de snelste supercomputers van vandaag kan aandrijven.

Ze zijn beide beschikbaar via Pure as-a-Service™, een managed storage-as-a-service (STaaS)-oplossing met een eenvoudig abonnementsmodel dat u de flexibiliteit biedt om de opslagcapaciteit naar behoefte te schalen. 

Betaal alleen voor wat u gebruikt, krijg wat u nodig heeft wanneer u het nodig heeft, en blijf modern zonder onderbreking. Neem vandaag contact met ons op om meer te weten te komen.

04/2026
Everpure FlashBlade//E | Everpure
FlashBlade//E™️ is an all-flash, capacity-optimized, unified file and object storage platform designed to tackle massive unstructured data growth and management.
Datasheet
3 pagina's

Blader door belangrijke resources en evenementen

BEURS
Pure//Accelerate® 2026
June 16-18, 2026 | Resorts World Las Vegas

Maak je klaar voor het meest waardevolle evenement dat je dit jaar zult bijwonen.

Schrijf u nu in
PURE360 DEMO’S
Ontdek, leer en ervaar Everpure.

Krijg toegang tot on-demand video's en demo's om te zien wat Everpure kan doen.

Demo’s bekijken
VIDEO
Bekijk: De waarde van een Enterprise Data Cloud

Charlie Giancarlo over waarom het beheren van data en niet opslag de toekomst zal zijn. Ontdek hoe een uniforme aanpak de IT-activiteiten van bedrijven transformeert.

Nu bekijken
RESOURCE
Legacy-storage kan de toekomst niet aandrijven.

Moderne workloads vragen om AI-ready snelheid, beveiliging en schaalbaarheid. Is uw stack er klaar voor?

Doe de assessment
Uw browser wordt niet langer ondersteund!

Oudere browsers vormen vaak een veiligheidsrisico. Om de best mogelijke ervaring te bieden bij het gebruik van onze site, dient u te updaten naar een van deze nieuwste browsers.

Personalize for Me
Steps Complete!
1
2
3
Continue where you left off
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Toekomstbestendige virtualisatiestrategieën

Opslagmogelijkheden voor al uw behoeften

AI-projecten op elke schaal mogelijk maken

Krachtige opslag voor datapijplijnen, training en inferentie

Bescherm tegen dataverlies

Cyberweerbaarheidsoplossingen die uw data beschermen

Kosten van cloudactiviteiten verlagen

Kostenefficiënte opslag voor Azure, AWS en private clouds

Versnel de prestaties van applicaties en databases

Opslag met lage latentie voor applicatieprestaties

Verminder het stroomverbruik in het datacenter

Efficiënte opslag van middelen om het gebruik van datacenters te verbeteren

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.