For OneCo har vi implementert en avansert AI-kunnskapsmotor kombinert med en dynamisk RAG-arkitektur (Retrieval-Augmented Generation).

For å løse dette har vi etablert en AI-basert kunnskapsmotor bygget på en vektordatabase og en dynamisk RAG-arkitektur. Dette er ikke en tradisjonell chatbot med forhåndsdefinerte svar. Det er en semantisk søkemotor kombinert med en språkmodell, koblet til en strukturert og kontinuerlig oppdatert kunnskapsbase som speiler OneCos organisasjon.
Hva ble levert
Vi har satt opp:
- Integrasjon mot OpenAI (modell: gpt-5-nano)
- Egen vektordatabase (RAG) hvor dataen til OneCo lages sikkert og innenfor GDPR og EØS databehandlingsavtalen.
- Dynamisk indeksering av OneCos virksomhetsdata
- Kontinuerlig oppdatering av kunnskapsgrunnlaget
- AI-chat og intern kunnskapsassistent
Hvordan løsningen fungerer
All relevant informasjon om:
- Hva OneCo leverer
- Tjenesteområder (Elektro, Elkraft, Telecom, Infrastruktur m.m.)
- Prosjekter og referanser
- Hvem som skal kontaktes innen ulike fagområder
- Organisasjonsstruktur
… indekseres løpende i en vektordatabase.
Når en bruker stiller spørsmål, skjer følgende:
- Spørsmålet embeddes og søkes semantisk i vektordatabasen
- Kun relevante tekstutdrag hentes ut
- Disse sendes videre til språkmodellen
- AI genererer et presist og kontekstuelt korrekt svar
Dette sikrer at svarene alltid er basert på OneCos faktiske og oppdaterte innhold – ikke generiske internettkilder.
Dynamisk og selvoppdaterende
Løsningen er ikke statisk.
Når:
- Nye prosjekter publiseres
- Ansatte endres
- Tjenesteområder oppdateres
- Organisasjonsstruktur justeres
… blir dette automatisk indeksert og tilgjengelig for AI-assistenten.
Dette gir OneCo en levende og kontinuerlig oppdatert kunnskapsmotor.
Resultat
- Raskere tilgang til riktig kontaktperson
- Mer presise svar til kunder
- Bedre navigasjon i komplekst tjenestetilbud
- Skalerbar AI-infrastruktur direkte på egne applikasjoner
- Full kontroll over data og struktur
Systemet har allerede betydelig bruk, med et snittbruk på over 300 000 tokens behandlet de siste 30 dagene, og chat-modulen som den mest brukte funksjonen.