RAG (Retrieval-Augmented Generation)
RAG er en teknikk der en språkmodell svarer ut fra bedriftens egne dokumenter — i stedet for kun den generelle treningen.
Også kjent som: retrieval augmented generation, kontekstbasert AI
RAG (Retrieval-Augmented Generation) er en teknikk der en språkmodell henter relevante utdrag fra en kunnskapsbase eller dokumentarkiv før den genererer svar. I stedet for å stole på modellens generelle trening, baserer svaret seg på faktiske dokumenter — med mulighet for å vise kilden. RAG løser to problemer samtidig: AI-en gir svar basert på din virksomhets data, og du kan se hvor svaret kom fra. Vanlige bruksområder er intern kunnskapssøk, kundeservice-chatter mot produktdokumentasjon og kontraktssøk.
I norsk kontekst
For norske bedrifter er RAG ofte førstevalget når man skal bygge en AI-assistent som «kjenner» firmaets egne dokumenter — fordi data forblir på norsk infrastruktur og tilgangskontroll kan håndheves per dokument.
Les mer i dybdeartikkelen om dette temaet.
Relaterte begreper
- AI-integrasjon — AI-integrasjon er prosessen der språkmodeller, RAG eller prediktive modeller kobles direkte inn i en bedrifts eksisterende systemer og arbeidsflyter.
- LLM (Large Language Model) — En LLM er en stor språkmodell trent på enorme tekstmengder, som kan generere, oppsummere og analysere tekst på menneskelignende måte.
- Embedding — En embedding er en numerisk representasjon av tekst (eller bilde) som lar AI-systemer sammenligne semantisk likhet.
- Vektor-database — En vektor-database er en database optimalisert for å lagre og søke i embeddings — fundamentet i RAG-systemer og AI-søk.