Trace Id is missing
Gå til hovedindholdet
Azure

Hvad er hentningsforstærket generering (RAG)?

Få mere at vide om, hvordan teknologien til hentningsforstærket generering (RAG) forbedrer nøjagtigheden og relevansen af svar, der genereres af store sprogmodeller (LLM'er).

RAG øger nøjagtigheden af kunstig intelligens ved at integrere ekstern viden, hvilket sikrer opdaterede, relevante svar

Ved at forbedre funktionaliteter til cloudcomputing og påvirke udviklingen af kunstig intelligens hjælper RAG med at forbedre nøjagtigheden og relevansen af svar genereret af kunstig intelligens, hvilket gør systemer drevet af kunstig intelligens mere pålidelige og effektive på tværs af forskellige programmer.

Vigtigste budskaber

  • Historien og udviklingen af RAG i kunstig intelligens afspejler en bredere tendens til mere intelligente og kontekstbevidste systemer, der effektivt kan kombinere store mængder oplysninger med avancerede genereringsfunktioner.
  • RAG-arkitektur gør det muligt for systemer drevet af kunstig intelligens at producere mere informeret og pålideligt indhold ved at basere generering, der er oplært på forhånd, i den hentede eksterne viden.
     
  • Fordelene ved RAG gør det til en effektiv teknik til oprettelse af systemer drevet af kunstig intelligens, der er mere præcise, pålidelige og alsidige med brede programmer på tværs af domæner, brancher og opgaver.
     
  • Udviklere bruger RAG til at bygge systemer drevet af kunstig intelligens, der kan generere indhold baseret på nøjagtige oplysninger, hvilket fører til mere pålidelige, kontekstbevidste og brugercentrerede programmer.

  • RAG-systemer kombinerer hentning og generering, hvilket gør det til et effektivt værktøj til en lang række programmer, brancher og use cases.

  • Efterhånden som RAG-modellerne fortsætter med at avancere, forventes de at spille en afgørende rolle i forskellige programmer, fra kundeservice til forskning og oprettelse af indhold.

  • RAG er indstillet til at spille en afgørende rolle i fremtiden for LLM'er ved at forbedre integrationen af processer til hentning og generering.

RAG: Mekanik, historie og indvirkning

Sådan fungerer RAG

Hentningsforstærket generering (RAG) er en struktur af kunstig intelligens, der kombinerer to teknikker. Først hentes relevante oplysninger fra eksterne kilder, såsom databaser, dokumenter eller internettet. Når disse oplysninger er indsamlet, bruges de til at informere om og forbedre generering af svar. Denne tilgang udnytter styrkerne ved både hentnings- og genereringsteknikker og sikrer, at svarene er nøjagtige, relevante og kontekstuelt beriget med de mest opdaterede og specifikke oplysninger, der er tilgængelige. Denne dobbelte funktionalitet gør det muligt for RAG-systemer at producere mere informerede og nuancerede output end udelukkende genererende modeller.

Historikken bag RAG

RAG har rod i de tidlige systemer til hentning af grundlæggende oplysninger. Efterhånden som genererende teknologier drevet af kunstig intelligens hurtigt avancerede, og genererende sprogmodeller som GPT-2 og BERT viste sig, steg behovet for mere præcise og relevante svar.   I 2020 blev RAG-arkitektur introduceret, og det markerede et betydeligt fremskridt. Ved at bruge maskinel indlæring til at kombinere hentnings- og genereringsmoduler – der integrerer LLM's interne videnbase med eksterne kilder til viden – kunne RAG'er producere mere nøjagtig, opdateret, sammenhængende og kontekstuelt nøjagtig tekst.   Med deep learning i deres kerne kan RAG-modeller oplæres fra start til slut, hvilket muliggør output, der optimerer svar, hvilket forbedrer kvaliteten af genereret indhold, efterhånden som modellen lærer at hente de mest pålidelige og kontekstuelt nyttige oplysninger.

Vigtigheden af RAG til kunstig intelligens

RAG spiller en afgørende rolle i at fremme funktionerne til kunstig intelligens og afspejler en tendens til mere intelligente og kontekstbevidste systemer, der effektivt kan kombinere store mængder oplysninger med avancerede egenskaber til generering. Her er de vigtigste årsager til, at RAG er grundlæggende for kunstig intelligens:

 
  • Forbedret nøjagtighed: Ved at integrere eksterne videnskilder forbedrer RAG nøjagtigheden og relevansen af svar, der genereres af LLM'er.
  • Kontekstuelt relevans: RAG gør det muligt for systemer drevet af kunstig intelligens at generere svar, der er mere kontekstuelt relevante, ved at hente specifikke oplysninger, der er relateret til anmodningen.

  • Omkostningseffektivitet: Implementering af RAG er mere effektivt end løbende at genoplære LLM'er med nye data. 

  • Gennemsigtighed: Ved at levere kilder til de oplysninger, der bruges i svar, øger RAG troværdigheden og tilliden.
     
  • Alsidighed: RAG kan anvendes på tværs af forskellige sektorer, såsom sundheds og uddannelsessektorer samt finansielle sektorer, og til formål som kundeservice, forskning og oprettelse af indhold.

  • Forbedret oplevelse: Ved at levere mere præcise og relevante svar fører RAG-teknologi til mere tilfredsstillende og produktive interaktioner for brugerne.
 

RAG-arkitektur

Arkitekturen i RAG-systemer er en kombination af to hovedmoduler plus en fusionsmekanisme, der arbejder sammen om at producere nøjagtige og kontekstuelt relevante output. RAG-moduler kan oplæres fra start til slut, hvilket giver algoritmen mulighed for at optimere hentning og generering i fællesskab, hvilket resulterer i et mere informeret og pålideligt resultat.

Sådan fungerer RAG-arkitektur:

Hentningsmodulet søger gennem et stort datasæt for at finde de mest relevante oplysninger baseret på forespørgslen.

Efter hentningen bruger generatormodulet de hentede oplysninger som yderligere kontekst til at generere et sammenhængende og relevant svar. Generatormoduler er typisk en forudtrænet sprogmodel, såsom generative pre-trained transformer (GPT) eller tovejs- og automatisk regressive transformere (BART), der er finjusteret til at generere tekst baseret på inputtet og de hentede oplysninger.

Fusionsmekanismen sikrer, at de hentede oplysninger kombineres effektivt i genereringsprocessen. Denne interaktion mellem modulerne gør det muligt for RAG-systemer at producere mere informeret og pålideligt indhold ved at basere genereringen på den hentede viden. 

Fordelene ved RAG

Effektiv arkitektur til forbedring af kunstig intelligens

Udviklere bruger RAG-arkitekturen til at oprette systemer drevet af kunstig intelligens, der er mere præcise, pålidelige og alsidige, med brede programmer på tværs af forskellige brancher og opgaver. Fordelene ved RAG er:
   
  • Forbedret nøjagtighed, relevans og kontekstuel præcision: Ved at hente relevante dokumenter eller data sikrer RAG, at det genererede output er baseret på faktiske og relevante oplysninger, hvilket forbedrer svarenes overordnede nøjagtighed og relevans.

  • Reducerede hallucinationer via faktabaseret generering: RAG reducerer sandsynligheden for hallucinationer – generering af sandsynlige men forkerte oplysninger – ved at basere genereringsmodellens output på faktisk hentet indhold, hvilket fører til mere pålidelige resultater.

  • Forbedret ydeevne i opgaver med åbent domæne med bred vidensadgang: RAG excellerer i besvarelse af spørgsmål i åbent domæne og lignende opgaver ved effektivt at hente oplysninger fra store og forskellige kilder, hvilket gør det muligt at håndtere en lang række emner med dybde og bredde.

  • Skalerbarhed og kapacitet til at håndtere store videnbaser: RAG kan effektivt søge efter og hente relevante oplysninger fra enorme datasæt, hvilket gør det skalerbart og egnet til programmer, der kræver omfattende vidensadgang. NoSQL-databaser gør det muligt for RAG-modeller at udnytte store mængder data til at generere kontekstuelt forbedrede svar.

  • Tilpasning og domænespecifikke programmer: RAG-modeller kan tilpasses og finjusteres til bestemte domæner, så udviklerne kan oprette specialiserede systemer drevet af kunstig intelligens, der er skræddersyet til bestemte brancher eller opgaver, såsom juridisk rådgivning, medicinsk diagnosticering eller økonomisk analyse.

  • Interaktiv og tilpasset læring: Via brugercentreret tilpasning kan RAG-systemer lære af brugerinteraktioner, hente mere relevante oplysninger over tid og tilpasse deres svar, så de bedre opfylder brugernes behov, hvilket forbedrer brugeroplevelsen og engagementet.

  • Alsidighed og multimodal integration: RAG kan udvides til at fungere sammen med multimodale data (tekst, billeder, strukturerede data), hvilket forbedrer styrken og mangfoldigheden af de oplysninger, der bruges i generering, og udvider modellens programmer.

  • Informeret skrivning til effektiv oprettelse af indhold: RAG er et effektivt værktøj, da det henter relevante fakta og referencer og sikrer, at genereret indhold ikke kun er kreativt, men også nøjagtigt og velinformeret.

Typer af RAG-systemer

Alsidighed på tværs af programmer

Hentningsforstærket generering er en adaptiv, alsidig AI-arkitektur med en lang række use cases på tværs af domæner og brancher. Her er  vigtige anvendelser af RAG:
 
  • ODQA (Open Domain Question Answering) 
    Use case:
    RAG er yderst effektiv i ODQA-systemer, hvor brugerne kan stille spørgsmål om stort set alle emner.
    Eksempel: Chatrobotter til kundesupport bruger RAG til at give nøjagtige svar ved at hente oplysninger fra store videnbaser eller ofte stillede spørgsmål.

  • Domænespecifikke specialiserede forespørgsler 
    Use case:
    I den juridiske branche kan RAG hjælpe med at analysere og generere opsummeringer af sagsakter, præcedens og statutter ved at hente relevante dokumenter.
    Eksempel: Et juridisk assistentværktøj henter og opsummerer dokumenter til bestemte formål.

  • Indholdsopsummering
    Use case:
    RAG kan hjælpe med at generere indhold af høj kvalitet, såsom mødenoter eller oversigter over artikler, rapporter eller blogindlæg, ved at hente relevante oplysninger og integrere dem i den genererede tekst.
    Eksempel: En journalist bruger RAG til at generere oversigter over de seneste nyhedsartikler ved at hente vigtige oplysninger fra forskellige kilder.

  • Tilpassede anbefalinger
    Use case:
    RAG kan forbedre anbefalingssystemer ved at hente brugerspecifikke oplysninger og generere tilpassede forslag.
    Eksempel: En e-handelsplatform bruger RAG til at anbefale produkter baseret på en brugers browserdata og præferencer, og tilbyder forklaringer, der er genereret ud fra relevante produktanmeldelser eller -beskrivelser.

  • Kompleks scenarieanalyse og oprettelse af indhold 
    Use case:
    En hybrid RAG-model kan bruges til at generere og samle detaljerede rapporter eller analyser ved at hente relevante data, dokumenter eller nyheder fra flere komplekse kilder.
    Eksempel: Et værktøj til finansiel analyse genererer investeringsprojektioner, analyser eller rapporter ved at hente og opsummere de seneste markedstendenser, historiske finansielle data, aktieresultater, ekspertkommentarer og økonomiske indikatorer.

  • Researchoplysninger og -syntese
    Use case:
    Forskere kan bruge RAG til at hente og syntetisere oplysninger fra akademiske opgaver, rapporter eller databaser for at lette anmeldelser og forskningsprojekter.
    Eksempel: Et akademisk værktøj genererer oversigter over relevante forskningspapirer ved at hente vigtige resultater fra forskellige undersøgelser.

  • Flersprogede og tværsprogede programmer
    Use case:
    RAG kan udrulles i miljøer på flere sprog for at hente oplysninger på forskellige sprog og generere indhold på tværs af sprog.
    Eksempel: Et oversættelsesværktøj oversætter tekst og henter samtidig kulturelt relevante oplysninger for at sikre, at oversættelsen er kontekstuelt relevant.

RAG vil drive fremtidens kunstig intelligens

Øget præcision i output fra kunstig intelligens

Hentningsforstærket generering er indstillet til at spille en afgørende rolle i fremtiden for LLM'er ved at forbedre integrationen af processer til hentning og generering. De forventede fremskridt på dette område vil føre til en mere problemfri og avanceret fusion af disse komponenter, hvilket gør det muligt for LLM'er at levere meget nøjagtige og kontekstuelt relevante output på tværs af en lang række programmer og brancher.

I takt med at RAG fortsætter med at udvikle sig, kan vi forudse dens indførelse på nye domæner, såsom tilpasset uddannelse, hvor den kan skræddersy læringsoplevelser baseret på individuelle behov og avancerede researchværktøjer, der tilbyder præcis og omfattende hentning af oplysninger til komplekse forespørgsler.

Håndtering af aktuelle begrænsninger, såsom forbedring af nøjagtigheden af hentning og reduktion af bias, er nøglen til at maksimere potentialet i RAG-systemer. Fremtidige gentagelser af RAG vil sandsynligvis indeholde mere interaktive og kontekstbevidste systemer, hvilket forbedrer brugeroplevelsen ved dynamisk at tilpasse til brugerinput.

Derudover vil udviklingen af multimodale RAG-modeller, der bruger computer vision til at integrere tekst, billeder og andre datatyper, udvide og åbne endnu flere muligheder, hvilket gør LLM'er mere alsidige og effektive end nogensinde før.
Ofte stillede spørgsmål

Ofte stillede spørgsmål

  • Hentningsforstærket generering (RAG) er en teknik drevet af kunstig intelligens, der kombinerer en hentningsmodel med en genererende model. Den henter relaterede oplysninger fra en database eller et dokumentsæt og bruger dem til at generere mere nøjagtige og kontekstuelt relevante svar. Denne tilgang forbedrer kvaliteten af tekst genereret af kunstig intelligens ved at basere den på virkelige data, hvilket gør den særligt nyttig til opgaver som besvarelse af spørgsmål, opsummering og oprettelse af indhold.
  • RAG forbedrer indhold genereret af kunstig intelligens ved at inkorporere eksterne data. Den henter relevante oplysninger fra en database og bruger derefter disse data til at generere mere nøjagtige og kontekstbevidste svar. Denne proces sikrer, at output fra systemet drevet af kunstig intelligens er bedre informerede og mere pålidelige.
  • RAG kombinerer en stor sprogmodel (LLM) med en hentningsmekanisme. Mens en LLM genererer tekst baseret på data, der er oplært på forhånd, forbedrer RAG dette ved at hente relevante oplysninger fra eksterne kilder i realtid, hvilket forbedrer nøjagtigheden og relevansen. LLM er i bund og grund afhængig af lærte mønstre, mens RAG aktivt henter opdaterede oplysninger for at informere sine svar.