Skip to Content
Dismiss
Innovation
Eine AIVision für alle

Eine einheitliche, automatisierte Grundlage für die Umwandlung von Daten in Intelligenz im großen Maßstab.

Erfahren Sie, wie das geht
Dismiss
16. bis 18. Juni, Las Vegas
Pure//Accelerate® 2026

Entdecken Sie, wie Sie den wahren Wert Ihrer Daten erschließen können.

Jetzt anmelden
Dismiss
Gartner® Magic Quadrant™-Bericht 2025
Beste Umsetzungsfähigkeit und beste Vision

Everpure wurde im Gartner® Magic Quadrant™ 2025 für Enterprise Storage-Plattformen als Leader genannt und als das Unternehmen mit der besten Umsetzungsfähigkeit und der besten Vision eingestuft.

Report downloaden

Was ist GPFS?

In einer schnelllebigen Umgebung benötigen Sie ein Dateisystem, das gleichzeitige Lesevorgänge von mehreren Knoten ermöglicht. Das IBM General Parallel File System (GPFS) wurde 1998 entwickelt, ist aber eine Option für Unternehmen, die künstliche Intelligenz (AI) und maschinelles Lernen (ML) in ihren Anwendungen einsetzen. Diese Anwendungen benötigen hochvolumigen und leistungsstarken Storage, der von mehreren Knoten aus zugänglich ist, um eine schnellere Verarbeitung zu ermöglichen.

Was ist GPFS?

Anwendungen auf Unternehmensebene funktionieren mit mehreren Festplatten mit potenziell Petabyte an gespeicherten Daten. Das IBM GPFS-Dateisystem ermöglicht eine schnelle Bereitstellung von Daten, um Engpässe durch langsamere Festplatten-Storage-Technologie zu vermeiden. Neue GPFS-Technologie verteilt seine Metadaten auf mehrere Platten-Storage-Knoten, und Daten werden auch auf mehrere Platten verteilt. Durch die Verteilung von Daten auf mehrere Festplatten können Anwendungen Daten von mehreren Festplatten gleichzeitig (d. h. parallel) abrufen, sodass mehr Daten gleichzeitig abgerufen werden können. Diese Technologie überwindet häufige Engpässe, wenn Anwendungen gezwungen sind, darauf zu warten, dass alle Daten von einer einzigen Festplatte abgerufen werden.

Funktionen von GPFS

Parallele Eingabe und Ausgabe in GPFS machen das Dateisystem zu einer der besseren Optionen für AI- und ML-Anwendungen, aber die Technologie hat noch einige andere:

  • Funktioniert gut mit Milliarden von Dateien, die in einem Storage Area Network (SAN) gespeichert sind 
  • Praktische Verwaltung und Integration Ihrer SAN-Geräte und GPFS
  • Hochgeschwindigkeitslese- und Schreibvorgänge zur Unterstützung von Anwendungen mit gleichzeitigen Benutzern mit hohem Volumen
  • Liest und schreibt Exabyte an Daten mit geringer Latenz

Anwendungsfälle für GPFS

High-Performance Computing (HPC) erfordert das Beste an Technologie, aber Unternehmen vergessen oft, dass Engpässe auf Storage-Ebene auftreten. Sie können die schnellsten CPUs, Server, Speicher und Netzwerkübertragungsgeschwindigkeiten zur Verfügung haben, die in die Storage-Hardware einfließen, um Daten zu lesen oder zu schreiben. Wenn Ihre Storage-Technologie jedoch langsam ist, führen Sie einen Engpass ein und verlangsamen Anwendungen. 

Einige Anwendungsfälle für GPFS:

  • Performance Engineering für Rechenzentren
  • Anwendungen, die hohe Datenverarbeitungsmengen erfordern
  • Aufnahme und Verarbeitung von maschinellem Lernen und künstlicher Intelligenz
  • Storage und Verarbeitung mehrerer Anwendungen
  • Hoher Storage von mehreren Petabytes

GPFS-Architektur

GPFS verwendet eine verteilte Architektur, was bedeutet, dass Daten mehrere Storage-Geräte umfassen. Mehrere Server oder SAN-Standorte speichern Ihre Daten, und mehrere Netzwerkverbindungen verbinden diese Storage-Geräte. Wenn eine Anwendung Daten lesen muss, kann sie mehrere Netzwerkstandorte verwenden, um Daten parallel zu lesen, was bedeutet, dass Daten gleichzeitig von allen Storage-Standorten gelesen werden.

Einige wichtige Komponenten der GPFS-Architektur:

  • Daten werden an mehreren Speicherorten gespeichert, aber Metadaten, die die Daten beschreiben, werden auch auf mehreren Servern gespeichert.
  • Server, die Daten speichern, können sich an mehreren Cloud- oder lokalen Standorten befinden.
  • Schnelle Netzwerkverbindungen verbinden Storage-Standorte und -Anwendungen mit GPFS-Storage.
  • Fortschrittliche Technologien für Storage-Geräte sind unerlässlich.

GPFS im Vergleich zu herkömmlichen Dateisystemen

GPFS wird oft mit dem Hadoop Distributed File System (HDFS) verglichen. Beide sind dazu gedacht, große Datenmengen zu speichern, aber sie haben einige Unterschiede, die sich auf Performance und Skalierbarkeit auswirken. Während beide Dateisysteme Daten aufteilen und auf Knoten im gesamten Netzwerk speichern, verfügt GPFS über Posix-Semantik, um die Kompatibilität mit verschiedenen Linux-Distributionen und -Betriebssystemen einschließlich Windows zu ermöglichen. 

Große primäre und sekundäre Metadaten sind für die Hadoop-Indexierung erforderlich, aber GPFS verteilt Metadaten im gesamten System, ohne dass spezielle Server erforderlich sind. Verteilte Daten befinden sich auch in kleineren Blöcken als Hadoop, sodass Lesevorgänge schneller erfolgen, insbesondere da Daten parallel gelesen werden. GPFS erfordert mehr Daten-Storage-Kapazität als Hadoop, ist aber während der Lesezyklen viel schneller.

GPFS Best Practices

Um das Lesen und Schreiben von Dateien mit optimaler Geschwindigkeit zu halten, stellen Sie zunächst sicher, dass Sie über die Netzwerkinfrastruktur für die Performance verfügen. Ein GPFS-Storage-System liest parallel, sodass Performance-First-Netzwerkgeräte sicherstellen, dass es keinen Engpass für Datenübertragungen darstellt. Die Infrastruktur von Pure Storage, einschließlich Pure Cloud Block Store™, Portworx® und FlashArray™, erhält die Anwendungs-Performance für großvolumige Festplattenlesevorgänge.

Dateifreigabe sollte mit Mount-Punkten auf Verzeichnisebene verwendet werden, damit Anwendungen nicht auf das gesamte Dateisystem einschließlich Betriebssystemdateien zugreifen. Die Montage auf der Grundlage von Verzeichnissen und nicht auf ganzen Festplatten schützt Daten besser und die Integrität der Server-Hosting-Festplatten. Administratoren sollten auch sensible Dateien trennen, die nicht mit den Anwendungsverfahren zum Lesen zusammenhängen, um das Risiko eines unbefugten Zugriffs zu senken.

Fazit

Wenn Sie schnellen Storage für eine leistungsstarke Rechenleistung in KI- und maschinellen Lernanwendungen benötigen, verfügt Pure Storage über die Infrastruktur, die bei der Skalierbarkeit hilft, die für Geschäftswachstum und Benutzerzufriedenheit erforderlich ist. AI Administratoren können Disks für HPC ohne teure Bereitstellung und Installation bereitstellen. Unsere HPC-Infrastruktur ist darauf ausgelegt, Integrität, Performance, Skalierbarkeit und Verarbeitung der nächsten Generation in Ihre Hochgeschwindigkeitsanwendung zu bringen.

02/2026
The Storage Reality of SQL Server Vector Search | Everpure
This paper explores how flash storage can address the I/O and capacity demands of enterprise-scale vector search and AI using Microsoft SQL Server and Everpure.
White Paper
14 pages

Wichtige Ressourcen und Veranstaltungen durchsuchen

VIDEO
Sehen Sie selbst: Der Wert einer Enterprise Data Cloud

Charlie Giancarlo erklärt, warum die Zukunft in der Verwaltung von Daten und nicht in der Verwaltung von Storage liegt. Erfahren Sie, wie ein einheitlicher Ansatz IT-Abläufe in Unternehmen transformiert.

Jetzt ansehen
RESSOURCE
Herkömmlicher Storage kann die Zukunft nicht beflügeln.

Moderne Workloads erfordern KI-fähige Geschwindigkeit, Sicherheit und Skalierbarkeit. Ist Ihr Stack darauf vorbereitet?

Bewertung durchführen
PURE360-DEMOS
Pure Storage erkunden, kennenlernen und erleben.

Überzeugen Sie sich mit On-Demand-Videos und -Demos von den Möglichkeiten von Pure Storage.

Demos ansehen
THOUGHT LEADERSHIP
Der Innovationswettlauf

Branchenführer, die an vorderster Front der Storage-Innovationen stehen, geben Einblicke und Ausblicke.

Mehr erfahren
Ihr Browser wird nicht mehr unterstützt!

Ältere Browser stellen häufig ein Sicherheitsrisiko dar. Um die bestmögliche Erfahrung bei der Nutzung unserer Website zu ermöglichen, führen Sie bitte ein Update auf einen dieser aktuellen Browser durch.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Zukunftssichere Virtualisierungsstrategien

Storage-Optionen für alle Ihre Anforderungen.

KIAIProjekte in beliebigem Umfang ermöglichen

Hochleistungs-Storage für Datenpipelines, Training und Inferenz.

Verhindern Sie Datenverluste

Cyber-Resilienz-Lösungen, die Ihr Risiko senken.

Senken Sie die Kosten für Cloud-Operationen

Kosteneffizienter Storage für Azure, AWS und Private Clouds.

Beschleunigen Sie die Performance von Anwendungen und Datenbanken

Storage mit geringer Latenz zur Beschleunigung der Anwendungs-Performance.

Verringern Sie den Stromverbrauch und den Platzbedarf von Rechenzentren

Ressourceneffizienter Storage zur Verbesserung der Rechenzentrumsauslastung.

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.