Skip to Content
Dismiss
Innovazione
Una piattaforma creata per l'AI

Unificata, automatizzata e pronta a trasformare i dati in intelligence.

Scopri come
Dismiss
16-18 giugno, Las Vegas
Pure//Accelerate® 2026

Scopri come trarre il massimo dai tuoi dati. 

Registrati ora

Che cos'è il recupero della generazione aumentata (RAG)?

Il machine learning e l'AI sono strumenti potenti che hanno il potenziale di cambiare il mondo, ma sono potenti solo quanto i dati che li alimentano e i modelli che utilizzano. Parte essenziale del machine learning e dell'AI, l'elaborazione del linguaggio naturale (NLP) offre ai computer la possibilità di interpretare, manipolare e comprendere il linguaggio umano. 

Il recupero della generazione aumentata (RAG) rappresenta un importante progresso nell'NLP, colmando il divario tra le capacità generative e l'accesso alle conoscenze esterne, portando a sistemi di comprensione e generazione del linguaggio più solidi e consapevoli del contesto.

Questo articolo spiega cos'è RAG, perché è importante, come funziona e le sue applicazioni e i suoi vantaggi. 

Che cos'è RAG?

RAG è una tecnica che consente di estendere le funzionalità degli LLM oltre i dati di formazione originali integrandoli con una knowledge base autorevole esterna.

In RAG, un modello di machine learning generativo recupera informazioni rilevanti da un'ampia knowledge base esterna durante il processo di generazione, portando a un contesto più ricco, risultati più ricchi e contenuti migliori. 

Perché RAG è importante nel campo dell'NLP?

RAG combina i punti di forza dei modelli linguistici pre-addestrati con la ricchezza contestuale delle informazioni recuperate, portando a una generazione di testo più informata e accurata in varie applicazioni, tra cui i sistemi di risposta alle domande, riepilogo e dialogo.

RAG è un concetto importante nel campo dell'NLP perché offre:

Miglioramento della comprensione contestuale: Integrando un meccanismo di recupero, i modelli RAG possono accedere a una grande quantità di conoscenze o contesti esterni rilevanti per la query di input o l'attività di generazione. Ciò consente al modello di avere una comprensione più approfondita del contesto, portando a risposte più accurate e contestualmente rilevanti.

Migliore generazione di contenuti: I modelli RAG possono generare contenuti che non solo sono fluenti, ma si basano anche su conoscenze reali. Ciò è particolarmente utile nelle attività in cui l'output generato deve essere fattuale e coerente.

Riduzione di pregiudizi e disinformazione: I modelli RAG possono contribuire a ridurre i pregiudizi e le disinformazione verificando i contenuti generati rispetto alle fonti esterne. Integrando prospettive diverse da una knowledge base, il modello può produrre risultati più equilibrati e fattualemente precisi.

Flessibilità e adattabilità: Le architetture RAG sono flessibili e adattabili a diversi domini e linguaggi. Possono sfruttare knowledge base specifiche per dominio o adattarsi a nuovi argomenti recuperando informazioni rilevanti in modo dinamico durante l'inferenza.

Scalabilità: I modelli RAG possono essere scalati in modo efficace per gestire knowledge base su larga scala. Il componente di recupero non si basa solo su parametri pre-addestrati, rendendo l'approccio scalabile per diverse applicazioni e casi d'uso.

Apprendimento e miglioramento continui: I sistemi RAG possono essere progettati per apprendere e migliorare continuamente nel tempo. Integrando meccanismi di feedback e processi di perfezionamento iterativi, i modelli RAG possono migliorare le loro performance, la precisione e la pertinenza nella generazione di contenuti di alta qualità. Questo ciclo di apprendimento iterativo contribuisce all'efficacia e all'affidabilità a lungo termine delle applicazioni basate su RAG.

Come funziona RAG?

RAG combina modelli di linguaggio pre-addestrati con meccanismi di recupero per migliorare la generazione di output basati su testo. 

Vediamo i componenti fondamentali di RAG:

  1. Modelli linguistici pre-addestrati 
  2. Il processo inizia con un modello di linguaggio pre-addestrato come un trasformatore pre-addestrato (GPT) generativo o le rappresentazioni bidirezionali dell'encoder dai trasformatori (BERT). Questi modelli sono formati su grandi quantità di dati di testo e possono comprendere e generare testo di tipo umano.

  3. Meccanismi di recupero
  4. Il meccanismo di recupero ottiene informazioni rilevanti da una knowledge base utilizzando tecniche come Okapi BM25 (una funzione di classificazione utilizzata dai motori di ricerca). 

  5. Knowledge base
  6. RAG richiede l'accesso a una knowledge base o a un corpo di lavoro che disponga di informazioni rilevanti per l'attività in questione. Può trattarsi di un database, di una raccolta di documenti o anche di un insieme curato di pagine web.

  7. Query di input
  8. L'utente fornisce una query di input o un prompt al sistema RAG. Questa query potrebbe essere una domanda, una frase parziale o qualsiasi forma di input che richiede contesto o informazioni per generare una risposta significativa.

  9. Processo di recupero
  10. Il meccanismo di recupero elabora la query di input e recupera i documenti o passaggi pertinenti dalla knowledge base. 

  11. Fusione del contesto
  12. Le informazioni recuperate vengono unite alla query o al prompt di input originale per creare un input ricco di contesto per il modello di lingua. Questa fase di fusione del contesto garantisce che il modello linguistico abbia accesso alle informazioni pertinenti prima di generare l'output.

  13. Generazione
  14. Il modello di linguaggio pre-addestrato prende l'input arricchito dal contesto e genera l'output desiderato. Questo risultato potrebbe essere una risposta completa a una domanda, la continuazione di una storia, una frase parafrasata o qualsiasi altra risposta basata su testo.

  15. Valutazione e perfezionamento
  16. L'output generato può essere valutato in base a metriche predefinite o al giudizio umano. Il sistema può essere perfezionato e perfezionato in base al feedback per migliorare la qualità degli output generati nel tempo.

Applicazioni RAG

RAG è utile in molti tipi di applicazioni in vari settori. 

Chatbot

L'esempio più comune è costituito dai chatbot e dagli assistenti virtuali, in cui RAG migliora le capacità di conversazione fornendo risposte contestualmente rilevanti e accurate. Un chatbot del servizio clienti per un'azienda di telecomunicazioni, ad esempio, può utilizzare RAG per recuperare informazioni dalla sua knowledge base, come le domande frequenti, le specifiche dei prodotti e le guide alla risoluzione dei problemi. Quando un utente del sito Web pone una domanda, il chatbot può generare risposte basate sia sulla query dell'utente che sulle conoscenze recuperate, portando a interazioni più informative e utili.

Generazione di contenuti

Altre applicazioni RAG comuni sono la generazione e il riepilogo dei contenuti. Ad esempio, un sistema di riepilogo delle notizie può utilizzare RAG per recuperare articoli correlati o informazioni di base su un determinato argomento. Il sistema può quindi creare un riepilogo conciso e informativo sintetizzando le conoscenze recuperate con i punti principali dell'articolo, fornendo ai lettori una panoramica completa senza omettere dettagli importanti.

Modelli in lingua di grandi dimensioni

RAG può essere utilizzato per casi d'uso di modelli di linguaggio di grandi dimensioni (LLM) su larga scala e a performance elevate, consentendo alle aziende di migliorare e personalizzare gli LLM generali con origini dati esterne, più specifiche e proprietarie. Questo risolve i principali problemi generati dall'AI, come le allucinazioni, rendendo gli LLM più precisi, tempestivi e rilevanti facendo riferimento alle knowledge base al di fuori di quelle su cui sono stati formati.

E-commerce

RAG aiuta anche le applicazioni di e-commerce recuperando recensioni, specifiche e feedback degli utenti sui prodotti. Quando l'utente cerca un prodotto o una categoria specifici, il sistema può generare raccomandazioni personalizzate in base alle preferenze dell'utente, alle interazioni passate e alle conoscenze recuperate. 

Istruzione

Gli istituti educativi e i siti web possono utilizzare RAG per creare esperienze di apprendimento personalizzate e fornire un contesto aggiuntivo ai contenuti didattici. Un sistema di tutoraggio basato sull'AI, ad esempio, può utilizzare RAG per accedere a materiali didattici, testi e risorse supplementari correlate agli argomenti insegnati. Quando uno studente pone una domanda o chiede chiarimenti su un concetto, il sistema può generare spiegazioni o esempi combinando le conoscenze acquisite con il contesto di apprendimento attuale dello studente.

Sanità

I sistemi informatici sanitari possono utilizzare RAG per fornire ai medici e ai pazienti informazioni mediche accurate e aggiornate. Un chatbot o un sistema informatico medico può utilizzare RAG per recuperare la letteratura medica, le linee guida sul trattamento e i materiali didattici per i pazienti. Quando un operatore sanitario o un paziente chiede informazioni su una specifica condizione medica, opzione di trattamento o sintomo, il sistema può generare risposte informative basate sulle conoscenze acquisite, aiutando gli utenti a prendere decisioni informate e a comprendere più facilmente concetti medici complessi.

Questi esempi dimostrano la versatilità di RAG in tutti i settori ed evidenziano il suo potenziale di migliorare vari aspetti di NLP, generazione di contenuti, sistemi di raccomandazione e applicazioni di gestione delle conoscenze.

Conclusione

RAG combina modelli di linguaggio pre-addestrati con meccanismi di recupero per migliorare le attività di generazione del testo. Migliora la qualità dei contenuti, riduce i pregiudizi e aumenta la soddisfazione degli utenti, la scalabilità e le funzionalità di apprendimento continuo. Le applicazioni RAG includono chatbot, generazione di contenuti, sistemi di raccomandazione, piattaforme didattiche, sistemi informativi per la sanità e altro ancora. 

Man mano che RAG continua a evolversi e integrarsi con tecnologie di AI avanzate, ha il potenziale di rivoluzionare il modo in cui interagiamo con i sistemi di AI, fornendo esperienze più personalizzate, informative e coinvolgenti nelle interazioni con il linguaggio naturale.

Scopri come una pipeline RAG con GPU NVIDIA, networking NVIDIA, microservizi NVIDIA e Pure Storage FlashBlade//S TM può ottimizzare le applicazioni GenAI aziendali.

Potrebbe interessarti anche...

03/2026
The Enterprise AI Guidebook
From data sovereignty to ai factories, discover the hidden challenges of scaling AI and how to overcome them.
eBook
7 pages

Esplora risorse ed eventi principali

TRADESHOW
Pure//Accelerate® 2026
June 16-18, 2026 | Resorts World Las Vegas

Preparati all'evento più importante a cui parteciperai quest'anno.

Registrati ora
DEMO DI PURE360
Esplora, scopri e prova Pure Storage.

Accedi a video e demo on demand per scoprire i vantaggi che Pure Storage ti offre.

Guarda le demo
VIDEO
Guarda: Il valore di un Enterprise Data Cloud (EDC).

Charlie Giancarlo spiega perché il futuro è nella gestione dei dati, non dello storage. Scopri in che modo un approccio unificato trasforma le operazioni IT aziendali.

Guarda
RISORSA
Lo storage legacy non può alimentare il futuro.

I workload moderni richiedono velocità, sicurezza e scalabilità AI-ready. Il tuo stack è pronto?

Effettua la valutazione
Il browser che stai usando non è più supportato.

I browser non aggiornati spesso comportano rischi per la sicurezza. Per offrirti la migliore esperienza possibile sul nostro sito, ti invitiamo ad aggiornare il browser alla versione più recente.

Personalize for Me
Steps Complete!
1
2
3
Personalize your Everpure experience
Select a challenge, or skip and build your own use case.
Strategie di virtualizzazione pronte per affrontare il futuro

Soluzioni di storage per tutte le tue esigenze

Consenti progetti di AI di qualunque dimensione

Storage a performance elevate per pipeline dei dati, formazione e inferenza

Proteggiti dalla perdita dei dati

Soluzioni di resilienza informatica che proteggono i tuoi dati

Riduci i costi delle operazioni su cloud

Storage efficiente dal punto di vista dei costi per Azure, AWS e private cloud

Accelera le performance di applicazioni e database

Storage a bassa latenza per le performance delle applicazioni

Riduci il consumo di energia e di ingombro del data center

Storage efficiente delle risorse per ottimizzare l'utilizzo dei data center

Confirm your outcome priorities
Your scenario prioritizes the selected outcomes. You can modify or choose next to confirm.
Primary
Reduce My Storage Costs
Lower hardware and operational spend.
Primary
Strengthen Cyber Resilience
Detect, protect against, and recover from ransomware.
Primary
Simplify Governance and Compliance
Easy-to-use policy rules, settings, and templates.
Primary
Deliver Workflow Automation
Eliminate error-prone manual tasks.
Primary
Use Less Power and Space
Smaller footprint, lower power consumption.
Primary
Boost Performance and Scale
Predictability and low latency at any size.
What’s your role and industry?
We've inferred your role based on your scenario. Modify or confirm and select your industry.
Select your industry
Financial services
Government
Healthcare
Education
Telecommunications
Automotive
Hyperscaler
Electronic design automation
Retail
Service provider
Transportation
Which team are you on?
Technical leadership team
Defines the strategy and the decision making process
Infrastructure and Ops team
Manages IT infrastructure operations and the technical evaluations
Business leadership team
Responsible for achieving business outcomes
Security team
Owns the policies for security, incident management, and recovery
Application team
Owns the business applications and application SLAs
Describe your ideal environment
Tell us about your infrastructure and workload needs. We chose a few based on your scenario.
Select your preferred deployment
Hosted
Dedicated off-prem
On-prem
Your data center + edge
Public cloud
Public cloud only
Hybrid
Mix of on-prem and cloud
Select the workloads you need
Databases
Oracle, SQL Server, SAP HANA, open-source

Key benefits:

  • Instant, space-efficient snapshots

  • Near-zero-RPO protection and rapid restore

  • Consistent, low-latency performance

 

AI/ML and analytics
Training, inference, data lakes, HPC

Key benefits:

  • Predictable throughput for faster training and ingest

  • One data layer for pipelines from ingest to serve

  • Optimized GPU utilization and scale
Data protection and recovery
Backups, disaster recovery, and ransomware-safe restore

Key benefits:

  • Immutable snapshots and isolated recovery points

  • Clean, rapid restore with SafeMode™

  • Detection and policy-driven response

 

Containers and Kubernetes
Kubernetes, containers, microservices

Key benefits:

  • Reliable, persistent volumes for stateful apps

  • Fast, space-efficient clones for CI/CD

  • Multi-cloud portability and consistent ops
Cloud
AWS, Azure

Key benefits:

  • Consistent data services across clouds

  • Simple mobility for apps and datasets

  • Flexible, pay-as-you-use economics

 

Virtualization
VMs, vSphere, VCF, vSAN replacement

Key benefits:

  • Higher VM density with predictable latency

  • Non-disruptive, always-on upgrades

  • Fast ransomware recovery with SafeMode™

 

Data storage
Block, file, and object

Key benefits:

  • Consolidate workloads on one platform

  • Unified services, policy, and governance

  • Eliminate silos and redundant copies

 

What other vendors are you considering or using?
Thinking...
Your personalized, guided path
Get started with resources based on your selections.