Skip to Content
Dismiss
Innovation
Eine AIVision für alle

Eine einheitliche, automatisierte Grundlage für die Umwandlung von Daten in Intelligenz im großen Maßstab.

Erfahren Sie, wie das geht
Dismiss
16. bis 18. Juni, Las Vegas
Pure//Accelerate® 2026

Entdecken Sie, wie Sie den wahren Wert Ihrer Daten erschließen können.

Jetzt anmelden
Dismiss
Gartner® Magic Quadrant™-Bericht 2025
Beste Umsetzungsfähigkeit und beste Vision

Everpure wurde im Gartner® Magic Quadrant™ 2025 für Enterprise Storage-Plattformen als Leader genannt und als das Unternehmen mit der besten Umsetzungsfähigkeit und der besten Vision eingestuft.

Report downloaden

Was ist eine Neural Processing Unit (NPU)?

Künstliche Intelligenz und maschinelles Lernen (AI/ML) sind aufregende Technologien, die riesige Versprechen machen, aber wir erreichen gemeinsam die Grenzen unserer Fähigkeiten, um sie zu erreichen. Insgesamt nähern sich unsere AI-Ziele und ML-Ziele schnell den Grenzen des Möglichen. Wenn es in AI und ML eine Zukunft geben wird, sind neuronale Verarbeitungseinheiten (NPUs) der Schlüssel.

Für Unternehmen, die AI Workloads in großem Maßstab ernst nehmen, hilft Ihnen das Verständnis, was ein NPU ist, wie es funktioniert und was es kann, dabei, die richtige Entscheidung darüber zu treffen, wie Sie Ihre Pipelines aufbauen können. Die richtige Storage-Lösung ist entscheidend, da die meisten nicht mit der Geschwindigkeit Schritt halten können, die NPUs bieten.

Was ist eine neuronale Verarbeitungseinheit?

Eine neuronale Verarbeitungseinheit ist eine spezialisierte Hardware, die mit dem Fokus auf der Beschleunigung von Berechnungen neuronaler Netzwerke entwickelt wurde. Dank ihres Designs verbessern NPUs die Geschwindigkeit und Effizienz von AISystemen drastisch. 

Verwechseln Sie NPUs nicht mit einer aufgerüsteten vertrauten Technologie: NPUs sind ein großer Schritt nach vorne für die AI/ML-Verarbeitung. NPUs sind für die Ausführung der Algorithmen optimiert, die AI und ML ermöglichen. Sie sind besonders effizient bei Aufgaben wie Bilderkennung und Verarbeitung natürlicher Sprache, die eine schnelle Verarbeitung riesiger Mengen an Multimediadaten erfordern.

NPUs konkurrieren nicht unbedingt mit ihren besser erkennbaren Gegenstücken, CPUs (Zentraleinheiten) und GPUs (Grafikverarbeitungseinheiten). Stattdessen ergänzen sich NPUs zu ihnen und ihren Rollen. 

CPUs, selbst die allerbesten, sind immer noch nur Allzweck-Computing-Engines. CPUs sind in der Lage, eine Vielzahl von Aufgaben zu bewältigen, aber es fehlt an spezialisierter Optimierung für eine Reihe von Aufgaben. GPUs hingegen sind auf die parallele Verarbeitung spezialisiert und eignen sich besonders gut für komplexe Berechnungen in Grafiken. Dank des digitalen Währungsminings haben sich GPUs einen Ruf für die Verarbeitung von Workloads für maschinelles Lernen erworben, benötigen jedoch spezielle Schaltkreise, um bei solchen Aufgaben besonders effektiv zu sein.

Wie funktioniert eine neuronale Verarbeitungseinheit?

NPUs wurden speziell für die Verarbeitung von Algorithmen für maschinelles Lernen entwickelt. Während GPUs sehr gut bei der Verarbeitung paralleler Daten sind, sind NPUs speziell für die Berechnungen konzipiert, die zum Ausführen neuronaler Netzwerke erforderlich sind, die für AI/ML-Prozesse verantwortlich sind.

Maschinelle Lernalgorithmen sind die Grundlage und das Gerüst, auf dem AI-Anwendungen aufgebaut werden. Mit der zunehmenden Komplexität neuronaler Netzwerke und Berechnungen für maschinelles Lernen ist der Bedarf nach einer maßgeschneiderten Lösung gestiegen. 

NPUs beschleunigen Deep Learning-Algorithmen, indem sie nativ viele der spezifischen Operationen ausführen, die neuronale Netzwerke benötigen. Anstatt das Framework für die Ausführung dieser Operationen oder für die Ausführung von Umgebungen zu erstellen, die diese erweiterten Berechnungen ermöglichen, sind NPUs speziell für die effiziente Ausführung von AI/ML-Operationen konzipiert. 

NPUs und ihre integrierte Fähigkeit zur Hochleistungsberechnung haben drastische Auswirkungen auf die AI-Performance. Matrix-Multiplikationen und -Faltungen sind spezialisierte Aufgaben, von denen AIProzesse abhängen, und NPUs zeichnen sich aus. Bilderkennung und Sprachverarbeitung sind die Orte, an denen NPUs derzeit die Branche transformieren, mit schnelleren Inferenzzeiten und geringerem Stromverbrauch, was sich auf das Endergebnis eines Unternehmens auswirken kann.

Anwendungen von neuronalen Verarbeitungseinheiten

Die Anwendung neuronaler Verarbeitungseinheiten erstreckt sich auf jede Branche oder jedes Gebiet, die/das eine schnelle, effiziente und skalierbare Verarbeitung von AI/ML-Workloads erfordert. NPUs werden in der Verarbeitung natürlicher Sprache für Stimmungsanalysen, Sprachübersetzungen, Textzusammenfassungen und Chatbots eingesetzt. Bei der Verwendung in der Cybersicherheit verarbeiten NPUs riesige Datenmengen und ermöglichen die Erkennung von Bedrohungen, Anomalien und Eindringlingen. NPUs können visuelle Daten deutlich besser analysieren und werden in autonomen Fahrzeugen und im Gesundheitswesen eingesetzt – zwei Felder, die eine schnelle Bildanalyse erfordern.

Die NPUs der Welt, die uns offenstehen, sind noch weitgehend unerforscht. Auf Verbraucherebene verschwimmen NPUs (die bereits weitgehend in Smartphones und SoC integriert sind) Hintergründe in Videoanrufen und erzeugen AIBilder spontan. Aber das wahre Ausmaß dessen, wozu NPUs in der Lage sind, muss noch aufgezeigt werden.

Vorteile und Einschränkungen von neuronalen Verarbeitungseinheiten

NPUs bieten schnellere Inferenzgeschwindigkeiten und beschleunigen Inferenzaufgaben in Deep Learning-Modellen. Wenn Berechnungen neuronaler Netzwerke auf NPUs ausgelastet werden, wird die Latenzzeit reduziert und die Benutzererfahrung kann verbessert werden. NPUs werden zunehmend in Edge- und IoT-Geräten eingesetzt, da sie viel energieeffizienter sind als ihre GPU- und CPU-Pendants.

Aber NPUs haben einen Nachteil: Sie können zu schnell sein. Daten-Storage-Systeme, die aus Data Lakes und Data Warehouses bestehen, wurden als Reaktion auf die harten, physischen Einschränkungen der Datenverarbeitungsgeschwindigkeiten entwickelt. Die Geschwindigkeit von NPUs kann herkömmliche Storage-Systeme überfordern.

Um skaliert richtig eingesetzt zu werden, benötigen NPUs eine ganzheitliche Storage-Lösung, die schnell genug ist, um Schritt zu halten. Auf Unternehmensebene muss Storage speziell für AI entwickelt werden. Nehmen wir zum Beispiel Pure Storage ® FlashBlade//S™, die als durchgängige, gemeinsam genutzte, skalierbare Architektur entwickelt wurde, die in der Lage ist, große AI/ML-Pipelines zu verarbeiten.

Es gibt auch eine KI-fähige Infrastruktur. AIRI ® ist eine Full-Stack-Lösung, die die AI-Implementierung vereinfacht und schnell und effizient skaliert, und wurde entwickelt, um den potenziellen Nachteil der blästigen Geschwindigkeiten von NPUs in ein Asset zu verwandeln. 

Neurale Verarbeitungseinheiten vs. Grafikverarbeitungseinheiten

Wie bereits erwähnt, unterscheiden sich NPUs und GPUs in Architektur, Performance und Anwendung erheblich. NPUs und GPUs sind verschiedene Hardwarekomponenten, die jeweils für das optimiert sind, was sie am besten können: NPUs für AI/ML-Aufgaben und GPUs für Grafik-Rendering. 

Da NPUs spezialisierte Hardware sind, die speziell für die Beschleunigung von Berechnungen neuronaler Netzwerke entwickelt wurde, ist ihre Architektur speziell für Deep Learning-Aufgaben konzipiert. GPUs hingegen müssen für Deep Learning-Aufgaben umfunktioniert werden und sind beim Grafik-Rendering viel stärker. GPUs verfügen über eine generalisierte Architektur mit Tausenden von Kernen. NPUs verfügen über ein optimierteres Design mit dedizierter Hardware für Aufgaben wie Matrixmultiplikationen und Faltungen. 

NPUs neigen dazu, GPUs bei Echtzeit-Inferenzaufgaben in Edge-Geräten zu übertreffen, bei denen niedrige Latenzzeiten und Energieeffizienz entscheidend sind. NPUs sind auch in Anwendungen vorzuziehen, die eine geräteinterne AI-Verarbeitung erfordern – denken Sie an autonome Fahrzeuge und IoT-Geräte. Und NPUs übertreffen GPUs für AI-Workload-Geschwindigkeiten in ressourcenbegrenzten Umgebungen.

Fazit

In jedem Projekt gibt es einen ständigen Kompromiss zwischen dem richtigen Tool für jeden Teil der Aufgabe und der Einfachheit eines einzigen, generalisierten Tools. Dieser Kompromiss ist beispielsweise der Grund, warum Amateur-Holzarbeiter nicht in eine Rundsäge, eine Gehrungssäge, eine Puzzlesäge, eine Tischsäge, eine Bandsäge, eine Drehsäge und eine Kettensäge investieren, bis sie eine für das Projekt, an dem sie arbeiten, benötigen. Ähnlich verlief die AI/ML-Welt bis vor Kurzem mit GPUs völlig in Ordnung.

Neurale Verarbeitungseinheiten sind leistungsstarke, maßgeschneiderte Tools für Algorithmen für künstliche Intelligenz und maschinelles Lernen. NPUs könnten das Gesicht von AI/ML-Workloads sehr gut revolutionieren. Und es ist sinnvoll, dass immer mehr Netzwerke und Unternehmen in sie investieren: AI und ML sind bereit, unsere Kultur, Technologien und sogar unsere Kunst neu zu gestalten.

Um die volle Leistung und Effizienz von NPUs im großen Maßstab zu nutzen, müssen Sie neu überdenken, was auf der Storage-Seite des Hauses möglich ist. Aber es geht nicht nur darum, das zu überdenken, was mit AI/ML möglich ist, sondern auch darum, Ihre Storage-, Hybrid- oder Cloud-Netzwerke neu zu überdenken, um sicherzustellen, dass Ihre NPUs zwar große Datenmengen schnell aufnehmen und verarbeiten, sondern auch eine Storage-Lösung haben, die mithalten kann.

02/2026
DGX GB300 SuperPOD Storage with FlashBlade | Everpure
NVIDIA DGX GB300 SuperPOD with Everpure®️ FlashBlade®️ is a turnkey data center for the AI enterprise with scale-out storage, optimized for AI.
Referenzarchitektur
10 pages

Wichtige Ressourcen und Veranstaltungen durchsuchen

VIDEO
Sehen Sie selbst: Der Wert einer Enterprise Data Cloud

Charlie Giancarlo erklärt, warum die Zukunft in der Verwaltung von Daten und nicht in der Verwaltung von Storage liegt. Erfahren Sie, wie ein einheitlicher Ansatz IT-Abläufe in Unternehmen transformiert.

Jetzt ansehen
RESSOURCE
Herkömmlicher Storage kann die Zukunft nicht beflügeln.

Moderne Workloads erfordern KI-fähige Geschwindigkeit, Sicherheit und Skalierbarkeit. Ist Ihr Stack darauf vorbereitet?

Bewertung durchführen
PURE360-DEMOS
Pure Storage erkunden, kennenlernen und erleben.

Überzeugen Sie sich mit On-Demand-Videos und -Demos von den Möglichkeiten von Pure Storage.

Demos ansehen
THOUGHT LEADERSHIP
Der Innovationswettlauf

Branchenführer, die an vorderster Front der Storage-Innovationen stehen, geben Einblicke und Ausblicke.

Mehr erfahren
Ihr Browser wird nicht mehr unterstützt!

Ältere Browser stellen häufig ein Sicherheitsrisiko dar. Um die bestmögliche Erfahrung bei der Nutzung unserer Website zu ermöglichen, führen Sie bitte ein Update auf einen dieser aktuellen Browser durch.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Zukunftssichere Virtualisierungsstrategien

Storage-Optionen für alle Ihre Anforderungen.

KIAIProjekte in beliebigem Umfang ermöglichen

Hochleistungs-Storage für Datenpipelines, Training und Inferenz.

Verhindern Sie Datenverluste

Cyber-Resilienz-Lösungen, die Ihr Risiko senken.

Senken Sie die Kosten für Cloud-Operationen

Kosteneffizienter Storage für Azure, AWS und Private Clouds.

Beschleunigen Sie die Performance von Anwendungen und Datenbanken

Storage mit geringer Latenz zur Beschleunigung der Anwendungs-Performance.

Verringern Sie den Stromverbrauch und den Platzbedarf von Rechenzentren

Ressourceneffizienter Storage zur Verbesserung der Rechenzentrumsauslastung.

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.