Skip to Content
Dismiss
Inovação
Uma plataforma criada para IA

Unificado, automatizado e pronto para transformar dados em inteligência.

Saber como
Dismiss
16-18 juni, Las Vegas
Pure//Accelerate® 2026

Ontdek hoe u de ware waarde van uw gegevens kunt ontsluiten. 

Schrijf u nu in

O que são modelos de transformador?

Entender a arquitetura de rede neural que revolucionou a AI e os requisitos de infraestrutura para implementação corporativa.

A Artificial Intelligence chegou a um ponto de inflexão que está remodelando setores inteiros, e no centro dessa transformação está uma arquitetura revolucionária de rede neural chamada modelos de transformadores. Esses sistemas sofisticados potencializam as inovações de AI que capturam a atenção global, desde as habilidades de conversação do ChatGPT até os recursos avançados de pesquisa da BERT, mudando substancialmente a forma como as organizações abordam o processamento de dados, as interações com clientes e a eficiência operacional.

O imperativo de negócios é claro: A McKinsey estima que a AI pode gerar até US$ 4,4 trilhões em valor anual adicional para empresas globais. As organizações reconhecem cada vez mais a AI como uma necessidade competitiva, em vez de um luxo experimental. No entanto, embora muita atenção se concentre em selecionar os algoritmos e as ferramentas de AI certos, um componente essencial muitas vezes é negligenciado: a base da infraestrutura que permite que esses modelos avançados entreguem seu valor prometido.

Os modelos de transformador representam uma oportunidade sem precedentes e um desafio complexo de implementação. Ao contrário das abordagens tradicionais de AI, esses modelos exigem conjuntos de dados massivos, arquiteturas de armazenamento especializadas e fluxos de dados cuidadosamente orquestrados para atingir todo o seu potencial. À medida que as empresas migram da experimentação de AI para a implantação em escala de produção, entender a tecnologia e seus requisitos de infraestrutura se torna essencial para capturar vantagens competitivas enquanto evita erros caros.

Essa exploração abrangente examina modelos de transformadores de perspectivas técnicas e de negócios, fornecendo aos tomadores de decisão de TI os insights necessários para implementar com sucesso essas tecnologias transformadoras em escala corporativa.

Entendendo os modelos de transformador

O que são modelos de transformador?

Os modelos de transformadores são redes neurais que aprendem contexto e significado usando a autoatenção para modelar relacionamentos entre elementos em uma sequência de entrada, mudando fundamentalmente quantos sistemas de AI processam dados sequenciais. Ao contrário dos modelos recorrentes que processam tokens passo a passo, os transformadores podem processar uma sequência de entrada em paralelo usando atenção, ajudando a capturar dependências na sequência (dentro do comprimento de contexto do modelo).

Esses modelos são amplamente usados para tarefas de sequência a sequência, convertendo sequências de entrada em sequências de saída, como tradução e resumo. Seja traduzindo linguagens ou gerando texto, os transformadores usam a atenção para incorporar contexto em toda a sequência de entrada (em uma janela de contexto fixa), o que pode melhorar a qualidade da saída em muitas tarefas.

A inovação revolucionária

A arquitetura de transformadores foi apresentada no inovador artigo de pesquisa de 2017 do Google, “A atenção é tudo o que você precisa”, que marcou uma mudança de paradigma no Machine Learning de máquina. Esse trabalho abordou as principais limitações das arquiteturas anteriores de modelagem de sequência, principalmente modelos recorrentes e convolucionais, ao lidar com dependências e paralelização de longo alcance.

As redes neurais recorrentes (RNNs, Recurrent Neural Networks) tradicionais processaram dados sequenciais um elemento de cada vez, criando gargalos que limitavam a velocidade de treinamento e a capacidade do modelo de entender relacionamentos de longo alcance dentro dos dados. As redes neurais convolucionais (CNNs, Convolutional Neural Networks), embora eficazes para certas tarefas, tiveram dificuldades com informações sequenciais e preservação de contexto em sequências estendidas.

Os transformadores resolveram esses desafios por meio de uma técnica matemática chamada autoatenção, que permite aos modelos avaliar todas as partes de uma sequência de entrada simultaneamente. Essa inovação eliminou a necessidade de processamento sequencial enquanto melhorava drasticamente a capacidade do modelo de entender o contexto e as relações entre elementos distantes em uma sequência.

A vantagem da autoatenção

O mecanismo de autoatenção representa a principal inovação que torna os transformadores exclusivamente poderosos. Essa técnica permite que os modelos atribuam vários níveis de importância a diferentes partes da sequência de entrada com base nos pesos de atenção aprendidos, assim como a forma como as pessoas se concentram em informações relevantes ao processar cenários complexos.

Considere esta frase: “O banco pode garantir que os depósitos serão processados com segurança.” O mecanismo de autoatenção permite que o modelo entenda que "banco" está relacionado a "depósitos" e "garantia", enquanto "processado com segurança" fornece contexto sobre o tipo de transação que está sendo discutida. Essa compreensão contextual acontece em toda a sequência em paralelo, em vez de palavra por palavra.

Essa capacidade de processamento paralelo permite treinamento mais eficiente e demonstrou melhorar o desempenho em muitas tarefas de modelagem de sequência em comparação com arquiteturas recorrentes anteriores.

Como funcionam os modelos de transformador

A estrutura codificadora/decodificadora

Os modelos de transformador operam por meio de uma arquitetura sofisticada de codificador-decodificador que processa informações em duas fases distintas. O codificador lê e analisa a sequência de entrada, seja de texto, áudio ou outros dados sequenciais, e a converte em uma representação matemática rica que captura contexto, relacionamentos e significado semântico. O decodificador usa essas informações codificadas para gerar a sequência de saída desejada, seja uma tradução, um resumo ou uma resposta.

Esse processo de dois estágios permite que os transformadores mantenham o contexto durante transformações complexas enquanto geram saídas coerentes e contextualmente adequadas. Ao contrário das arquiteturas anteriores que perderam informações conforme as sequências aumentaram, a estrutura codificador-decodificador preserva e aproveita a compreensão contextual em todos os conjuntos de dados.

Atenção de várias cabeças

O mecanismo de atenção do transformador opera por meio de vários “chefes de atenção” paralelos, cada um desenvolvido para capturar diferentes tipos de relacionamentos dentro dos dados. Essa abordagem de atenção com várias cabeças permite que o modelo se concentre simultaneamente em vários aspectos da sequência de entrada:

  • Relações sintáticas entre palavras e estruturas gramaticais 
  • Conexões semânticas que estabelecem significado e contexto
  • Dependências de longo alcance que vinculam conceitos entre sequências estendidas
  • Relações posicionais não mantêm a ordem e o fluxo da sequência

Cada cabeçote de atenção gera vetores de consulta, chave e valor que trabalham juntos para determinar quais partes da sequência de entrada merecem foco ao processar um determinado elemento. Esse processamento paralelo de vários tipos de relacionamento permite que os transformadores desenvolvam um entendimento diferenciado que espelha a compreensão humana.

Codificação posicional

Como os transformadores processam sequências inteiras simultaneamente em vez de sequencialmente, eles exigem um mecanismo para entender a ordem e a posição dos elementos dentro da sequência. A codificação posicional aborda esse desafio adicionando marcadores de posição matemática à representação de cada elemento.

Esses marcadores de posição garantem que o modelo entenda não apenas quais informações estão presentes, mas onde elas aparecem na sequência. Esse recurso é essencial para tarefas como tradução de idiomas, em que a ordem das palavras afeta significativamente o significado, ou análise de série temporal, em que os relacionamentos temporais geram insights.

Vantagens técnicas para implementação corporativa

A arquitetura do transformador oferece vantagens mensuráveis de desempenho que se traduzem diretamente em valor comercial. Os recursos de processamento paralelo reduzem drasticamente os tempos de treinamento, permitindo que as organizações iterem mais rapidamente e implantem soluções de AI com mais rapidez. A capacidade da arquitetura de lidar com sequências mais longas significa que as empresas podem processar documentos inteiros, conversas prolongadas ou conjuntos de dados abrangentes sem perder contexto crítico.

Essas inovações técnicas dão aos modelos de transformador a flexibilidade para potencializar uma ampla variedade de setores e casos de uso, tornando-os a arquitetura ideal para AI corporativa.

Aplicativos de modelo de transformador e impacto nos negócios

Transformando as indústrias por meio de aplicativos versáteis

A notável versatilidade dos modelos de transformadores permitiu aplicativos inovadores em praticamente todos os setores, mudando fundamentalmente a forma como as organizações lidam com desafios complexos de processamento de dados. Agora, esses modelos potencializam soluções que vão desde automação do atendimento ao cliente até descoberta científica, demonstrando seu valor como tecnologias básicas em vez de ferramentas de nicho.

A rápida adoção de soluções baseadas em transformadores reflete seu impacto comprovado nos negócios. Uma parte substancial da pesquisa recente sobre AI se baseia em modelos de transformadores, destacando seu papel central na AI moderna e as vantagens que oferecem às organizações que os adotam desde o início.

Excelência em processamento de linguagem natural

Os modelos de transformadores revolucionaram o processamento de linguagem natural, permitindo aplicativos que pareciam impossíveis há poucos anos. Modelos de linguagem grandes, como a GPT, potencializam chatbots sofisticados que lidam com consultas complexas de clientes. Modelos baseados em transformadores, como BERT, são amplamente usados em sistemas automatizados de resumo de documentos e tradução em tempo real.

Esses aplicativos oferecem resultados de negócios mensuráveis. Em um estudo da Harvard Business School, os agentes de atendimento ao cliente que usavam sugestões de AI responderam a bate-papos cerca de 20% mais rápido e alcançaram pontuações mais altas de sentimento do cliente, melhorando a experiência do cliente. As empresas que usam processamento automatizado de conteúdo podem obter ciclos de tomada de decisão mais rápidos e maior eficiência operacional.

Inovações multimodais e científicas

Além do processamento de texto, os modelos de transformadores agora se destacam em aplicativos multimodais que combinam diferentes tipos de dados. Transformadores de visão processam imagens com precisão que competem com sistemas especializados de visão computacional. Modelos como o DALL-E geram conteúdo visual personalizado a partir de descrições de texto, permitindo novos fluxos de trabalho criativos e recursos de marketing.

Em domínios científicos, os modelos de transformadores aceleraram os processos de descoberta que tradicionalmente exigiam anos de pesquisa. Por exemplo, os modelos de previsão de estrutura de proteína ajudam as empresas farmacêuticas a identificar alvos de medicamentos com mais eficiência. As instituições financeiras usam sistemas baseados em transformadores para detecção de fraudes e negociação algorítmica com maior precisão e velocidade.

Criação de valor específica do setor

Diferentes setores aproveitam os recursos do transformador para enfrentar seus desafios únicos:

  • As organizações de saúde usam modelos de transformadores para análise de imagens médicas, processamento de prontuários de pacientes e aceleração da descoberta de medicamentos.
  • Os serviços financeiros implantam esses modelos para avaliação de riscos, automação da conformidade regulatória e experiências personalizadas do cliente.
  • As empresas de fabricação aplicam a tecnologia de transformadores à manutenção preditiva, ao controle de qualidade e à otimização da cadeia de fornecimento.
  • As empresas de varejo aproveitam modelos de transformadores para previsão de demanda, gerenciamento de inventário e sistemas de recomendação personalizados.

Esses diversos aplicativos destacam o potencial dos modelos de transformadores para criar vantagens competitivas entre os setores. No entanto, perceber esse potencial requer uma infraestrutura robusta que possa dar suporte aos requisitos computacionais e de dados substanciais que esses modelos avançados exigem.

Requisitos de infraestrutura para implementação de transformadores corporativos

Demandas de dados e grande escala

A implementação de modelos de transformadores em escala corporativa revela requisitos de infraestrutura que excedem muito os aplicativos de negócios tradicionais. Os conjuntos de dados de treinamento podem variar de centenas de gigabytes para modelos especializados a vários petabytes para modelos de linguagem de grande porte com centenas de bilhões de parâmetros. Modelos de transformadores modernos como o GPT-3 exigem conjuntos de dados contendo centenas de bilhões de tokens de dados de texto, enquanto modelos multimodais exigem coleções ainda maiores de diversos tipos de dados.

Esses requisitos de escala criam desafios imediatos para sistemas de armazenamento corporativo tradicionais que foram desenvolvidos para cargas de trabalho convencionais. As organizações devem apoiar não apenas o armazenamento de conjuntos de dados de treinamento em massa, mas também a recuperação e o processamento rápidos dessas informações durante o treinamento de modelos e as operações de inferência.

Requisitos de desempenho para otimização de GPU

O treinamento de modelos de transformadores depende muito de GPUs e outros aceleradores especializados. Embora esses dispositivos ofereçam enorme capacidade computacional, sua eficiência depende da capacidade do sistema de fornecer dados com rapidez suficiente para mantê-los ocupados. Quando os fluxos de dados ficam aquém, as GPUs podem passar um tempo significativo esperando informações em vez de realizar cálculos úteis.

O desempenho do armazenamento é frequentemente uma parte essencial desse fluxo. A taxa de transferência insuficiente, o desempenho inconsistente ou o acesso paralelo limitado podem reduzir a utilização da GPU e aumentar os tempos gerais de treinamento. Em ambientes de treinamento de grande escala, até mesmo ineficiências modestas na entrega de dados podem se agravar em muitos aceleradores, retardando os ciclos de iteração e aumentando os custos de infraestrutura.

Como resultado, ambientes bem-sucedidos de treinamento de transformadores são normalmente desenvolvidos com sistemas de armazenamento que oferecem:

  • Acesso sustentado a dados de alta largura de banda para dar suporte à operação contínua da GPU durante o treinamento
  • Latência baixa e previsível, principalmente para inferência e fluxos de trabalho de serviço
  • Desempenho uniforme em diversos tamanhos de dados e padrões de acesso, evitando variabilidade sob carga
  • Recursos paralelos de acesso a dados para dar suporte a arquiteturas de treinamento com várias GPU e vários nós

Em vez de tratar o armazenamento como uma consideração secundária, muitas plataformas de AI de alto desempenho o abordam como um componente integral da pilha de treinamento. Melhorar o desempenho completo do fluxo de dados pode reduzir significativamente os cronogramas de treinamento, permitir experimentações mais rápidas e ajudar as organizações a extrair mais valor de seus investimentos em GPU.

Gerenciamento complexo do ciclo de vida dos dados

O desenvolvimento de modelos de transformadores envolve vários estágios de processamento de dados, cada um com requisitos distintos de armazenamento. As operações de entrada e pré-processamento de dados exigem padrões de acesso sequencial de alta taxa de transferência. As fases de treinamento exigem acesso aleatório a diversas amostras de dados. A implantação de inferência precisa de acesso previsível e de baixa latência aos pesos dos modelos e dados de entrada.

As organizações também devem gerenciar a retenção de dados durante todo o ciclo de vida do modelo. Os conjuntos de dados de treinamento, os pontos de verificação modelo e os resultados do processamento intermediário são propriedade intelectual valiosa que exige preservação e proteção de longo prazo. Isso cria requisitos para arquiteturas de armazenamento em camadas que equilibram as necessidades de desempenho com o dimensionamento de capacidade econômico.

Complexidade da integração corporativa

A infraestrutura do modelo de transformador deve se integrar perfeitamente aos sistemas corporativos existentes enquanto oferece suporte a diversos fluxos de trabalho de desenvolvimento de AI. Os cientistas de dados exigem acesso flexível aos conjuntos de dados de treinamento, enquanto os sistemas de produção precisam de acesso confiável e seguro aos endpoints de inferência. As equipes de segurança exigem proteção abrangente de dados e controles de acesso, enquanto as equipes de operações exigem recursos de monitoramento e gerenciamento em toda a pilha de infraestrutura de AI.

Esses requisitos complexos destacam a necessidade de plataformas de armazenamento unificado que possam dar suporte a todo o espectro de operações de modelo de transformador enquanto mantêm recursos de gerenciamento, segurança e confiabilidade de nível corporativo.

Como navegar pelos desafios de implementação e pelas melhores práticas estratégicas

Obstáculos comuns de implementação

As organizações que embarcam em implementações de modelos de transformadores frequentemente encontram desafios previsíveis que podem desviar iniciativas de AI ou estender significativamente os cronogramas de desenvolvimento. Os silos de dados representam um dos obstáculos mais persistentes, em que os dados valiosos de treinamento permanecem presos em sistemas distintos que não conseguem alimentar com eficiência os fluxos de trabalho de AI. Os gargalos de desempenho surgem quando a infraestrutura de armazenamento não consegue acompanhar os requisitos da GPU, levando à subutilização dispendiosa de recursos e ciclos de treinamento estendidos.

As dificuldades de expansão agravam esses desafios à medida que as organizações tentam passar de implementações de prova de conceito para implantações em escala de produção. Muitas empresas descobrem que sua infraestrutura de AI experimental não pode dar suporte aos volumes de dados, cargas de usuários ou requisitos de desempenho de modelos de transformadores de produção, exigindo reformulações caras da infraestrutura que poderiam ter sido evitadas com o planejamento adequado.

Abordagens de implementação estratégica

Implantações bem-sucedidas de modelos de transformadores exigem abordagens estratégicas que atendam aos requisitos de infraestrutura desde o início. As organizações podem obter resultados ideais adotando plataformas de dados unificadas que eliminam silos enquanto fornecem acesso uniforme e de alto desempenho em todo o ciclo de vida do desenvolvimento da AI. Essa abordagem permite que os cientistas de dados acessem conjuntos de dados de treinamento com eficiência, enquanto apoiam os requisitos de inferência de produção sem alterações arquitetônicas.

A implementação de estratégias de otimização de desempenho é igualmente essencial. As organizações devem priorizar soluções de armazenamento que ofereçam padrões de acesso previsíveis e de alta largura de banda otimizados para cargas de trabalho de AI. Isso inclui a implantação de arquiteturas de armazenamento totalmente flash que minimizam a variabilidade da latência e suportam os padrões paralelos de acesso a dados que os modelos de transformadores exigem para obter o melhor desempenho.

As metodologias de implantação em etapas podem ajudar as organizações a gerenciar a complexidade enquanto aumentam a confiança em sua infraestrutura de AI. Começar com cargas de trabalho não essenciais permite que as equipes validem as características de desempenho e os procedimentos operacionais antes de implantar modelos de transformadores essenciais para os negócios. Essa abordagem também permite a otimização iterativa de configurações de armazenamento e fluxos de trabalho de gerenciamento de dados.

Otimização de custos e preparação para o futuro

O gerenciamento eficaz de custos exige equilibrar os requisitos de desempenho com restrições orçamentárias por meio de estratégias inteligentes de camadas de armazenamento. As organizações podem otimizar as despesas implementando o gerenciamento automatizado do ciclo de vida dos dados, que move os dados de treinamento frequentemente acessados para camadas de alto desempenho, enquanto arquivam conjuntos de dados históricos e modelam artefatos para armazenamento de capacidade econômico.

O planejamento para o crescimento representa outro fator crítico de sucesso. Os modelos de transformadores e seus requisitos de dados continuam expandindo rapidamente, tornando a infraestrutura escalável essencial para o sucesso de longo prazo. As organizações se beneficiam de plataformas de armazenamento que oferecem suporte à capacidade não disruptiva e à expansão do desempenho, permitindo que as iniciativas de AI cresçam sem exigir upgrades de infraestrutura forklift que interrompem os fluxos de trabalho de desenvolvimento.

Segurança e conformidade também são considerações importantes durante o planejamento da implementação. Os modelos de transformadores muitas vezes processam dados comerciais confidenciais, exigindo soluções de armazenamento que ofereçam proteção abrangente de dados, controles de acesso e recursos de auditoria que atendam aos padrões de segurança corporativa enquanto apoiam processos colaborativos de desenvolvimento de AI.

Infraestrutura como vantagem competitiva

A revolução do modelo de transformador representa mais do que um avanço tecnológico. Ela sinaliza uma mudança fundamental na forma como as empresas criam valor a partir dos dados e competem nos mercados digitais. As organizações que implementam com sucesso esses sistemas avançados de AI podem obter vantagens competitivas substanciais por meio de experiências aprimoradas dos clientes, ciclos acelerados de inovação, eficiência operacional aprimorada e muito mais.

O fator crítico de sucesso não está apenas na seleção dos algoritmos certos ou na contratação de cientistas de dados qualificados, mas na construção de bases de infraestrutura que permitam que os modelos de transformadores ofereçam todo o seu potencial. As decisões de arquitetura de armazenamento tomadas hoje em dia determinarão se as iniciativas de AI aceleram o crescimento dos negócios ou se tornam experimentos caros que não conseguem expandir.

O Everpure fornece a base da infraestrutura que permite às empresas aproveitar os recursos transformadores dos modelos de transformadores. Por meio de soluções como AIRI® para infraestrutura integrada de AI, FlashBlade® para armazenamento de dados não estruturados de alto desempenho e Evergreen//One .A para storage as a service escalável, as organizações podem acelerar o desenvolvimento de AI enquanto reduzem a complexidade e otimizam os custos. Essas plataformas oferecem o desempenho previsível, a escalabilidade contínua e o gerenciamento unificado de dados que os modelos de transformadores exigem para gerar resultados de negócios.

À medida que os modelos de transformadores continuam evoluindo e expandindo para novos aplicativos, as organizações mais bem posicionadas para o sucesso serão aquelas que criaram uma infraestrutura robusta e escalável capaz de dar suporte à inovação de AI em escala corporativa. O futuro pertence a empresas que reconhecem a infraestrutura como um facilitador estratégico da transformação da AI, não apenas um requisito técnico.

Pronto para acelerar suas iniciativas de AI com infraestrutura desenvolvida para modelos de transformadores? Veja como as soluções otimizadas para AI Everpure podem transformar a abordagem da sua empresa em relação à Artificial Intelligence.

03/2026
The Enterprise AI Guidebook
From data sovereignty to ai factories, discover the hidden challenges of scaling AI and how to overcome them.
e-Book
7 pages

Confira os principais recursos e eventos

FEIRA DE NEGÓCIOS
Pure//Accelerate® 2.026
June 16-18, 2026 | Resorts World Las Vegas

Prepare-se para o evento mais valioso do ano.

Registrar-se agora
DEMONSTRAÇÕES SOBRE O PURE360
Explore, conheça e teste a Everpure.

Acesse vídeos e demonstrações sob demanda para ver do que a Everpure é capaz.

Assistir às demonstrações
VÍDEO
Assista: O valor de um Enterprise Data Cloud.

Charlie Giancarlo sobre o por que de gerenciar dados — e não o armazenamento — é o futuro. Descubra como uma abordagem unificada transforma as operações de TI corporativas.

Assista agora
RECURSO
O armazenamento legado não pode potencializar o futuro.

Cargas de trabalho avançadas exigem velocidade, segurança e escala compatíveis com a IA. Sua pilha está pronta?

Faça a avaliação
Seu navegador não é mais compatível.

Navegadores antigos normalmente representam riscos de segurança. Para oferecer a melhor experiência possível ao usar nosso site, atualize para qualquer um destes navegadores mais atualizados.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Estratégias de virtualização pronta para o futuro

Opções de armazenamento para todas as suas necessidades

Viabilização de projetos de IA em qualquer escala

Armazenamento de alto desempenho para fluxo de dados, treinamento e inferência

Proteção contra perda de dados

Soluções para resiliência cibernética que protegem os seus dados

Redução do custo das operações em nuvem

Armazenamento econômico para Azure, AWS e nuvens privadas

Aumento do desempenho de aplicativos e bancos de dados

Armazenamento de baixa latência para desempenho de aplicativos

Redução do consumo de energia e espaço físico do datacenter

Armazenamento com uso eficiente de recursos para melhorar o uso do datacenter

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.