Skip to Content
Dismiss
Innovation
Eine AIVision für alle

Eine einheitliche, automatisierte Grundlage für die Umwandlung von Daten in Intelligenz im großen Maßstab.

Erfahren Sie, wie das geht
Dismiss
16. bis 18. Juni, Las Vegas
Pure//Accelerate® 2026

Entdecken Sie, wie Sie den wahren Wert Ihrer Daten erschließen können.

Jetzt anmelden
Dismiss
Gartner® Magic Quadrant™-Bericht 2025
Beste Umsetzungsfähigkeit und beste Vision

Everpure wurde im Gartner® Magic Quadrant™ 2025 für Enterprise Storage-Plattformen als Leader genannt und als das Unternehmen mit der besten Umsetzungsfähigkeit und der besten Vision eingestuft.

Report downloaden

Was ist Data Lineage?

Wenn Sie mehrere Datenpipelines haben, müssen Sie wissen, woher Daten stammen, welche Schritte unternommen wurden, um sie zu transformieren und wo sie gespeichert werden. Eine Tracking-Lösung für Data Lineage bietet einen besseren Schutz von Daten und hilft Unternehmen, Änderungen an sensiblen Daten zu verfolgen. Die meisten Unternehmen verwenden Dokumentation, um Datenpipelines und Data Lineage detailliert zu beschreiben, aber Softwaretools erleichtern die Überwachung und Dokumentation von Änderungen an Ihren Daten.

Was ist eine Data Lineage?

Data Lineage erfolgt in der Regel in Form einer Dokumentation, die verwendet wird, um Daten und Änderungen daran besser zu verwalten. Wo Daten gespeichert werden, wird auch dokumentiert, sodass Unternehmen wissen, dass Daten auf eine Weise gespeichert werden, die den lokalen Vorschriften entspricht. In einer Unternehmensdatenpipeline können Rohdaten aus mehreren Quellen (z. B. Websites und internen Flatfiles) extrahiert und transformiert werden, um sie in einer strukturierten Datenbank oder einer unstrukturierten Datenbank für Datenanalysen zu speichern. Die Dokumentation zu Data Lineage beschreibt, wo Daten extrahiert und welche Änderungen daran vorgenommen werden.

Die Dokumentation von Datenänderungen, Quellen und dem endgültigen Speicherort stellt sicher, dass Pipelines wie erwartet funktionieren und Fehler schneller behoben werden können. Beispielsweise kann die Datenquelle ihre Struktur ändern, sodass die Datenpipeline Änderungen an einer Telefonnummer vornimmt, bei der falsche Nummern am endgültigen Ziel gespeichert sind. Die Dokumentation der Data Lineage hilft Entwicklern, schneller zu erkennen, wo die Fehler auftreten.

Vorteile der Data Lineage

Sensible Daten müssen nach bestimmten Sicherheitsstandards gespeichert werden. Die Protokollierung muss beim Datenzugriff erfolgen. Ein Dokument zur Datenabstammung sorgt für bessere Ergebnisse für die Compliance und kann bei allen Prüfverfahren verwendet werden. Compliance ist nur ein wichtiger Vorteil der Data Lineage.

Die Dokumentation der Phasen der Datentransformation, der Quellenextraktion und des endgültigen Ziels für den Storage macht die Fehlerbehebung auch effizienter. Wenn Entwickler jeden Schritt der Datentransformation kennen, können sie den Code validieren und Fehler schneller erkennen. Wenn Daten in kundenorientierten Anwendungen verwendet werden, können Entwickler schneller erkennen, wo Daten gespeichert werden. Jede Datenintegration ist effizienter, und die Dokumentation für die Datenlinie verringert das Risiko, die Datenintegrität während der Anwendungsentwicklung zu verlieren.

Implementierung der Data Lineage

Es mag wie ein einfaches Projekt erscheinen, aber die Implementierung von Data Lineage kann eine große Herausforderung für Anwendungen auf Unternehmensebene darstellen. Jeder Stakeholder muss einbezogen werden, und es kann Monate dauern, bis alle erforderlichen Informationen gesammelt werden, um die Data Lineage zu dokumentieren. Hier sind die grundlegenden Schritte für den Data Lineage-Prozess:

  1. Sprechen Sie mit den Stakeholdern, um die Anwendung zu verstehen, die für ihre Arbeitsfunktion verwendet wird.
  2. Diskutieren Sie Anwendungsdatenquellen mit Entwicklern.
  3. Bestimmen Sie Metadaten für Ihren Datenkatalog.
  4. Erstellen Sie einen Datenkatalog mit Metadaten.
  5. Definieren Sie das Tracking neuer Datenlinien.
  6. Verfahren zur Dokumentverfolgung.
  7. Stellen Sie eine Governance über zukünftige Datenänderungen her, um sicherzustellen, dass die Dokumentation auf dem neuesten Stand bleibt.
  8. Besprechen Sie Änderungen mit den Stakeholdern.
  9. Überwachen Sie die Nachverfolgung der Datenlinie und ändern Sie sie bei Bedarf.

Das Erkennen von Daten und das Verfolgen von Änderungen ist eine große Herausforderung, aber Sie können mit Tools arbeiten, um den Prozess zu vereinfachen. Einige Tools helfen Ihnen bei der Erstellung eines Datenkatalogs und andere entdecken Datenquellen. Was Sie verwenden, hängt von Ihrem Prozess und davon ab, was Sie erreichen möchten. Hier sind einige Tools, mit denen Sie loslegen können:

  • Collibra-Data Lineage: Suchen Sie automatisch Datenquellen und ordnen Sie den Workflow von Quellen zum endgültigen Storage-Ziel zu.
  • Octopai: Verwalten Sie Ihren Datenkatalog und die Metadaten, die jeder Datenquelle Metadaten zugeordnet sind.
  • Atlan: Ordnen Sie Datenpipelines zu und stellen Sie sicher, dass die Speicherorte und der Pipeline-Prozess den gesetzlichen Compliance-Anforderungen entsprechen.

Best Practices für die Data Lineage

Wenn Ihr Data Lineage-Prozess auseinanderfällt, könnten Sie den Überblick über Datenquellen verlieren, möglicherweise mit sensiblen Daten arbeiten, ohne konform zu sein, oder Daten verlieren, wenn Ihre Pipelines nicht mehr ordnungsgemäß funktionieren. Um Datenverluste oder kostspielige Compliance-Verstöße zu vermeiden, können Sie einige Best Practices für Verfahren zu Data Lineage befolgen. Hier sind einige Möglichkeiten, Ihre Data Lineage und Pipelines sicher und dokumentiert zu halten:

  • Aktualisieren Sie die Dokumentation, wenn sich Ihre Pipelines, Ihr Ziel oder Ihre Quellen ändern.
  • Prüfen und protokollieren Sie Versionen der Dokumentation mit Informationen darüber, wer sie wann geändert hat.
  • Nutzen Sie Automatisierung, um die Bereitstellung zu beschleunigen und die Risiken von Aufsichtsvorgängen zu senken.
  • Entwickeln Sie eine Namenskonvention, die in Ihrer gesamten Dokumentation konsistent bleibt.
  • Katalogisieren Sie die für Daten und die Anwendungen verantwortlichen Personen mithilfe von Daten.
  • Überprüfen Sie die Dokumentation jährlich, um sicherzustellen, dass sie immer noch korrekt ist.

Herausforderungen und Lösungen

Data Lineage ist eine Form der Prüfung, und wie bei jedem Prüfprojekt kann sie Herausforderungen mit sich bringen. Die größte Herausforderung für die meisten Auditoren besteht darin, Datenquellen zu finden und Pipelines an Datenziele zuzuordnen. In einer Unternehmensumgebung können Hunderte von Datenquellen vorhanden sein. Die Transformation von Daten kann mehrere Schritte in Anspruch nehmen und Daten könnten an lokale Datenbanken oder in der Cloud gesendet werden. Es kann schwierig sein, Daten zu lokalisieren, wenn sie durch die Datenpipeline geleitet werden. Discovery-Tools mit künstlicher Intelligenz helfen bei dieser Herausforderung, und Entwickler für Datenpipelines können bei Transformationsfragen helfen.

Entwickler und Datenbankadministratoren nehmen häufig Änderungen vor, ohne sie zu dokumentieren. Ohne Updates wird die Dokumentation der Datenabstammung veraltet. Für Auditoren und Administratoren ist es schwierig, sicherzustellen, dass die Dokumentation der Data Lineage über Änderungen an Datenpipelines auf dem Laufenden bleibt. Die Zusammenarbeit mit Stakeholdern und die Erstellung von Richtlinien, die von Entwicklern dokumentiert werden müssen, trägt dazu bei, dieses Risiko zu verringern. Außerdem können Tools verwendet werden, um Änderungen zu automatisieren und Warnungen zu senden, wenn Änderungen an der Datenpipeline vorgenommen werden.

Fazit

Für Compliance und einen reibungsloseren Übergang beim Ändern von Datenpipelines kann ein Data Lineage-Prozess jede Quelle, jedes Ziel und jede Transformation dokumentieren, die sich auf Daten auswirkt. Sensible Daten werden verfolgt, sodass alle Storage- und Zugriffskontrollen den Compliance-Anforderungen entsprechen. Sie können einheitlichen Storage von Pure Storage nutzen, um bei der Skalierbarkeit und einer besseren Dokumentation Ihrer Daten zu helfen.

01/2026
Technical Brief: FlashBlade//EXA | Everpure
This brief describes how FlashBlade//EXA delivers efficient, easy-to-deploy, scale-out storage with the capacity, throughput, and metadata performance that modern AI and HPC demand.
12 pages

Wichtige Ressourcen und Veranstaltungen durchsuchen

VIDEO
Sehen Sie selbst: Der Wert einer Enterprise Data Cloud

Charlie Giancarlo erklärt, warum die Zukunft in der Verwaltung von Daten und nicht in der Verwaltung von Storage liegt. Erfahren Sie, wie ein einheitlicher Ansatz IT-Abläufe in Unternehmen transformiert.

Jetzt ansehen
RESSOURCE
Herkömmlicher Storage kann die Zukunft nicht beflügeln.

Moderne Workloads erfordern KI-fähige Geschwindigkeit, Sicherheit und Skalierbarkeit. Ist Ihr Stack darauf vorbereitet?

Bewertung durchführen
PURE360-DEMOS
Pure Storage erkunden, kennenlernen und erleben.

Überzeugen Sie sich mit On-Demand-Videos und -Demos von den Möglichkeiten von Pure Storage.

Demos ansehen
THOUGHT LEADERSHIP
Der Innovationswettlauf

Branchenführer, die an vorderster Front der Storage-Innovationen stehen, geben Einblicke und Ausblicke.

Mehr erfahren
Ihr Browser wird nicht mehr unterstützt!

Ältere Browser stellen häufig ein Sicherheitsrisiko dar. Um die bestmögliche Erfahrung bei der Nutzung unserer Website zu ermöglichen, führen Sie bitte ein Update auf einen dieser aktuellen Browser durch.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Zukunftssichere Virtualisierungsstrategien

Storage-Optionen für alle Ihre Anforderungen.

KIAIProjekte in beliebigem Umfang ermöglichen

Hochleistungs-Storage für Datenpipelines, Training und Inferenz.

Verhindern Sie Datenverluste

Cyber-Resilienz-Lösungen, die Ihr Risiko senken.

Senken Sie die Kosten für Cloud-Operationen

Kosteneffizienter Storage für Azure, AWS und Private Clouds.

Beschleunigen Sie die Performance von Anwendungen und Datenbanken

Storage mit geringer Latenz zur Beschleunigung der Anwendungs-Performance.

Verringern Sie den Stromverbrauch und den Platzbedarf von Rechenzentren

Ressourceneffizienter Storage zur Verbesserung der Rechenzentrumsauslastung.

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.