Skip to Content
Dismiss
Innovation
Eine AIVision für alle

Eine einheitliche, automatisierte Grundlage für die Umwandlung von Daten in Intelligenz im großen Maßstab.

Erfahren Sie, wie das geht
Dismiss
16. bis 18. Juni, Las Vegas
Pure//Accelerate® 2026

Entdecken Sie, wie Sie den wahren Wert Ihrer Daten erschließen können.

Jetzt anmelden
Dismiss
Gartner® Magic Quadrant™-Bericht 2025
Beste Umsetzungsfähigkeit und beste Vision

Everpure wurde im Gartner® Magic Quadrant™ 2025 für Enterprise Storage-Plattformen als Leader genannt und als das Unternehmen mit der besten Umsetzungsfähigkeit und der besten Vision eingestuft.

Report downloaden

Was ist ein Supercomputer?

Der Begriff „Supercomputer“ bezieht sich auf einen Computer, der mit einer höheren Performance arbeitet als ein Standardcomputer. Oft bedeutet dies, dass die Architektur, die Ressourcen und die Komponenten von Supercomputern diese extrem leistungsfähig machen, sodass sie mit oder möglichst nahe an der höchstmöglichen Betriebsrate für Computer arbeiten können. 

Supercomputer enthalten die meisten der wichtigsten Komponenten eines typischen Computers, darunter mindestens einen Prozessor, Peripheriegeräte, Anschlüsse, ein Betriebssystem und verschiedene Anwendungen. Der Hauptunterschied zwischen einem Supercomputer und einem Standardcomputer ist seine Rechenleistung.

In der Vergangenheit waren Supercomputer einzelne, superschnelle Maschinen, die vor allem von Unternehmen und wissenschaftlichen Organisationen verwendet wurden, die massive Rechenleistung für extrem schnelle Berechnungen benötigten. Moderne Supercomputer können jedoch aus Zehntausenden von Prozessoren bestehen, die Milliarden oder sogar Billionen von Berechnungen pro Sekunde durchführen können.

Zu den gängigen Anwendungen für Supercomputer gehören heute die Wettervorhersage, die Betriebskontrolle von Kernreaktoren und die Kryptologie. Da die Kosten für das Supercomputing gesunken sind, werden moderne Supercomputer auch für Marktforschung, Online-Spiele und VR- und AR-Anwendungen (Virtual Reality und Augmented Reality) eingesetzt.

Eine kurze Geschichte des Supercomputers

Im Jahr 1964 schufen Seymour Cray und sein Team von Entwicklern bei der Control Data Corporation (CDC) mit dem CDC 6600 den ersten Supercomputer. Damals war der CDC 6600 zehnmal schneller als herkömmliche Computer und dreimal schneller als der nächstschnellste Computer, der IBM 7030 Stretch, der Berechnungen mit einer Geschwindigkeit von bis zu 3 MegaFLOPS (FLoating-point Operations Per Second, Gleitkommaoperationen pro Sekunde) durchführte. Nach heutigen Maßstäben ist das zwar langsam, aber damals war er schnell genug, um als Supercomputer bezeichnet zu werden. 

Seymour Cray, der als „Vater des Supercomputing“ bekannt ist, und sein Team waren führend in der Supercomputing-Industrie und brachten im Jahr 1969 den CDC 7600 (160 MegaFLOPS), 1982 den Cray X-MP (800 MegaFLOPS) und 1985 den Cray 2 (1,9 GigaFLOPS) heraus.

In der Folge versuchten andere Unternehmen, Supercomputer erschwinglicher zu machen und entwickelten die massiv-parallele Verarbeitung (MPP, Massively Parallel Processing). Im Jahr 1992 bauten Don Becker und Thomas Sterling, Auftragnehmer der NASA, den Beowulf, einen Supercomputer, der aus einer Gruppe von zusammenarbeitenden Computereinheiten bestand. Er war der erste Supercomputer, der das Clustermodell verwendete.

Moderne Supercomputer verwenden sowohl zentrale Recheneinheiten (CPUs) als auch Grafikprozessoren (GPUs), die zusammenarbeiten, um Berechnungen durchzuführen. TOP500 nennt den Fugaku-Supercomputer im japanischen Kobe am RIKEN Center for Computational Science als schnellsten Supercomputer der Welt mit einer Verarbeitungsgeschwindigkeit von 442 PetaFLOPS.

Supercomputer versus normale PCs

Moderne Supercomputer aggregieren Rechenleistung, um dank einer wesentlich höheren Performance als der eines einzelnen Desktop-Computers oder Servers komplexe Probleme in Technik, Wissenschaft und Wirtschaft zu lösen.

Im Gegensatz zu normalen PCs bestehen moderne Supercomputer aus riesigen Serverclustern, in denen eine oder mehrere CPUs zu Rechenknoten zusammengefasst sind. Rechenknoten bestehen aus einem Prozessor (oder einer Gruppe von Prozessoren) und einem Speicherblock und können Zehntausende von Knoten enthalten. Diese Knoten sind miteinander verbunden, damit sie kommunizieren und zusammenarbeiten können, um bestimmte Aufgaben zu erfüllen, während Prozesse auf Tausende von Prozessoren verteilt sind oder gleichzeitig darauf ausgeführt werden. 

So wird die Performance von Supercomputern gemessen

FLOPS werden zum Messen der Performance eines Supercomputers und für wissenschaftliche Berechnungen verwendet, bei denen Gleitkommaberechnungen zum Einsatz kommen, d. h. Zahlen, die so groß sind, dass sie in Exponenten ausgedrückt werden müssen.

FLOPS sind ein genaueres Maß als „Millionen Instruktionen pro Sekunde“ (MIPS). Wie bereits erwähnt, können einige der derzeit schnellsten Supercomputer mehr als einhundert Billiarden FLOPS (PetaFLOPS) leisten.

Promo zum Testen von FlashBlade

FlashBlade testen

Keine Hardware, keine Einrichtung, keine Kosten – keine Probleme. Testen Sie die Verwaltung eines Everpure FlashBlade-Systems, der innovativsten Lösung der Branche, die nativen Scale-out-Datei- und -Objekt-Storage liefert.

Jetzt testen

Wie funktioniert ein Supercomputer?

Ein Supercomputer kann aus Tausenden von Knoten bestehen, die durch Parallelverarbeitung miteinander kommunizieren, um Probleme zu lösen. Es gibt jedoch zwei Ansätze für die Parallelverarbeitung: symmetrisches Multiprozessorsystem (SMP) und massiv-parallele Verarbeitung (MPP). 

Bei SMP teilen sich die Prozessoren den Speicher und den I/O-Bus oder Datenpfad. SMP ist auch als eng gekoppeltes Multiprocessing oder als „Shared-Everything-System“ bekannt.

MPP koordiniert die Verarbeitung eines Programms durch mehrere Prozessoren, die gleichzeitig an verschiedenen Teilen des Programms arbeiten. Jeder Prozessor verwendet sein eigenes Betriebssystem und seinen eigenen Speicher. MPP-Prozessoren kommunizieren über eine Messaging-Schnittstelle, über die Nachrichten zwischen den Prozessoren versendet werden können. MPP kann komplex sein und erfordert Kenntnisse darüber, wie eine gemeinsame Datenbank partitioniert und wie die Arbeit auf die Prozessoren verteilt werden kann. Ein MPP-System wird als lose gekoppeltes oder „Shared-Nothing-System“ bezeichnet.

Ein Vorteil von SMP besteht darin, dass Organisationen mehr Benutzer schneller bedienen können, indem sie die Workload dynamisch auf die Computer verteilen. SMP-Systeme gelten als besser geeignet als MPP-Systeme für die Online-Transaktionsverarbeitung (OTP), bei der viele Benutzer auf dieselbe Datenbank zugreifen (z. B. einfache Transaktionsverarbeitung). MPP eignet sich besser als SMP für Anwendungen, die mehrere Datenbanken parallel durchsuchen müssen (z. B. Entscheidungshilfesysteme und Data-Warehouse-Anwendungen).

Arten von Supercomputern

Supercomputer lassen sich in zwei Kategorien einteilen: Allzweck- und Spezialcomputer. Innerhalb dieser Kategorien können Allzweck-Supercomputer in drei Unterkategorien unterteilt werden:

Allzweck-Supercomputer

  • Vektorverarbeitende Computer: In den 80er und frühen 90er Jahren waren die meisten Supercomputer für wissenschaftliche Berechnungen Vektorrechner. Heutzutage sind sie nicht mehr so beliebt, aber moderne Supercomputer haben immer noch CPUs, in denen auch Vektorverarbeitung zum Einsatz kommt.
  • Eng verbundene Cluster-Computer: Dabei handelt es sich um Gruppen von verbundenen Computern, die als Einheit zusammenarbeiten. Dazu gehören massiv-parallele Cluster, Director-basierte Cluster und Cluster mit zwei oder mehreren Knoten. Parallele und Director-basierte Cluster werden üblicherweise für die Hochleistungsverarbeitung verwendet, während Zwei-Knoten- und Mehr-Knoten-Cluster für Fehlertoleranz eingesetzt werden.
  • Commodity-Computer: Dazu gehören Anordnungen zahlreicher Standard-PCs, die über lokale Netze (LANs) mit hoher Bandbreite und geringer Latenzzeit verbunden sind.

Spezial-Supercomputer 

Spezial-Supercomputer sind Supercomputer, die für eine bestimmte Aufgabe oder ein bestimmtes Ziel gebaut wurden. Sie verwenden in der Regel anwendungsspezifische integrierte Schaltkreise (ASICs), um eine bessere Performance zu erzielen (z. B. wurden Deep Blue und Hydra beide für Spiele wie Schach entwickelt). 

Anwendungsfälle für Supercomputer

Angesichts ihrer offensichtlichen Vorteile haben Supercomputer in Bereichen wie der Technik und der wissenschaftlichen Forschung breite Anwendung gefunden. Anwendungsfälle sind unter anderem:

  • Wetter- und Klimaforschung: Zum Vorhersagen der Auswirkungen extremer Wetterereignisse und zum Verständnis von Klimamustern, z. B. im NOAA-System (National Oceanic and Atmospheric Administration)
  • Öl- und Gasexploration: Zum Erfassen riesiger Mengen geophysikalischer seismischer Daten zur Auffindung und Erschließung von Ölreserven
  • Luftfahrt- und Automobilbranche: Zum Entwickeln von Flugsimulatoren und simulierten Automobilumgebungen sowie zum Anwenden der Gesetze der Aerodynamik für den niedrigsten Luftwiderstandskoeffizienten
  • Forschung im Bereich der Kernfusion: Zum Bauen von Kernfusionsreaktoren und virtuellen Umgebungen für Tests von Kernexplosionen und Waffenballistik
  • Medizinische Forschung: Zum Entwickeln von neuen Arzneimittel, Therapien für Krebs und seltene genetische Störungen und Behandlungen für COVID-19 sowie zur Erforschung der Entstehung und Entwicklung von Epidemien und Krankheiten
  • Echtzeitanwendungen: Zum Aufrechterhalten der Performance von Online-Spielen bei Turnieren und bei der Veröffentlichung neuer Spiele, wenn viele Nutzer sie spielen

Supercomputing und HPC

Supercomputing wird manchmal synonym mit High-Performance Computing (HPC) verwendet. Genauer ist es jedoch, zu sagen, dass Supercomputing eine HPC-Lösung ist, die sich auf die Verarbeitung komplexer und großer Berechnungen durch Supercomputer bezieht.

Mit HPC können Sie datenintensive Berechnungen über mehrere vernetzte Supercomputer hinweg synchronisieren. Dadurch können komplexe Berechnungen mit größeren Datensätzen in weitaus kürzerer Zeit durchgeführt werden, als dies mit normalen Computern der Fall wäre. 

Skalierbarer Storage für das Supercomputing

Moderne Supercomputer werden in einer Vielzahl von Bereichen für eine Vielzahl von Zwecken eingesetzt. Einige der weltweit führenden Technologieunternehmen entwickeln KI-Supercomputer in Erwartung der Rolle, die sie im schnell wachsenden Metaverse spielen könnten.

Folglich müssen Storage-Lösungen nicht nur schnelle Datenabrufe für extrem hohe Berechnungsgeschwindigkeiten unterstützen, sondern auch so skalierbar sein, dass sie die Anforderungen großer KI-Workloads mit hoher Performance erfüllen können.

VR- und AR-Technologien erfordern eine große Menge an Daten. Dies gilt auch für unterstützende Technologien wie 5G, maschinelles Lernen (ML), das Internet der Dinge (IoT) und neuronale Netze.

Pure Storage® FlashArray//XL bietet erstklassige Performance und Effizienz für Unternehmens-Workloads, während FlashBlade® die fortschrittlichste All-Flash-Storage-Lösung der Branche ist. Beide bieten eine skalierbare, robuste Storage-Lösung, mit der die schnellsten Supercomputer von heute betrieben werden können.

Beide sind über Pure as-a-Service™ verfügbar, eine verwaltete STaaS-Lösung (Storage-as-a-Service) mit einem einfachen Abonnementmodell, das Ihnen die nötige Flexibilität gibt, um Storage-Kapazität nach Bedarf zu skalieren. 

Sie zahlen nur für das, was Sie verbrauchen, bekommen, was Sie brauchen, wenn Sie es brauchen, und bleiben ohne Unterbrechung auf dem aktuellen Stand. Kontaktieren Sie uns, um mehr zu erfahren.

02/2026
Meeting Oracle Recovery SLAs with FlashBlade | Everpure
FlashBlade delivers 60TB/hr Oracle RMAN restore rates with Direct NFS, enabling enterprise backup consolidation and aggressive RTO targets at scale.
White Paper
18 pages

Wichtige Ressourcen und Veranstaltungen durchsuchen

VIDEO
Sehen Sie selbst: Der Wert einer Enterprise Data Cloud

Charlie Giancarlo erklärt, warum die Zukunft in der Verwaltung von Daten und nicht in der Verwaltung von Storage liegt. Erfahren Sie, wie ein einheitlicher Ansatz IT-Abläufe in Unternehmen transformiert.

Jetzt ansehen
RESSOURCE
Herkömmlicher Storage kann die Zukunft nicht beflügeln.

Moderne Workloads erfordern KI-fähige Geschwindigkeit, Sicherheit und Skalierbarkeit. Ist Ihr Stack darauf vorbereitet?

Bewertung durchführen
PURE360-DEMOS
Pure Storage erkunden, kennenlernen und erleben.

Überzeugen Sie sich mit On-Demand-Videos und -Demos von den Möglichkeiten von Pure Storage.

Demos ansehen
THOUGHT LEADERSHIP
Der Innovationswettlauf

Branchenführer, die an vorderster Front der Storage-Innovationen stehen, geben Einblicke und Ausblicke.

Mehr erfahren
Ihr Browser wird nicht mehr unterstützt!

Ältere Browser stellen häufig ein Sicherheitsrisiko dar. Um die bestmögliche Erfahrung bei der Nutzung unserer Website zu ermöglichen, führen Sie bitte ein Update auf einen dieser aktuellen Browser durch.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Zukunftssichere Virtualisierungsstrategien

Storage-Optionen für alle Ihre Anforderungen.

KIAIProjekte in beliebigem Umfang ermöglichen

Hochleistungs-Storage für Datenpipelines, Training und Inferenz.

Verhindern Sie Datenverluste

Cyber-Resilienz-Lösungen, die Ihr Risiko senken.

Senken Sie die Kosten für Cloud-Operationen

Kosteneffizienter Storage für Azure, AWS und Private Clouds.

Beschleunigen Sie die Performance von Anwendungen und Datenbanken

Storage mit geringer Latenz zur Beschleunigung der Anwendungs-Performance.

Verringern Sie den Stromverbrauch und den Platzbedarf von Rechenzentren

Ressourceneffizienter Storage zur Verbesserung der Rechenzentrumsauslastung.

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.