Skip to content

AI kan blive din nye, trofaste ESDH-/ECM-assistent

Af Phillip Grønfeldt, Consultant og Bjørn Axelsen, Lead Consultant hos Devoteam.

Kunstig intelligens (AI) stikker hovedet frem i mange IT-systemer for tiden – men hvilke lavthængende frugter kan der høstes på ESDH-/ECM-området, og hvordan kommer man hurtigt i gang? I denne ekspertartikel giver vi indsigt i, hvordan AI kan skabe bedre og mere effektive processer. Derudover sætter vi fokus på, hvilke begrænsninger der følger med teknologien. For selvom AI altid arbejder effektivt, så skal og må teknologien holdes i ørerne.

Med de store AI-sprogmodeller som fx ChatGPT har der åbnet sig nye muligheder for at bruge AI på netop ESDH-/ECM-området. Tidligere krævede det et massivt forarbejde at træne AI.

Journalisering er tidskrævende, og vi ser mange virksomheder og myndigheder, der drømmer om at automatisere journaliseringsopgaven. Vi har derfor kigget på, hvordan AI med de nye sprogmodeller kan give os en tiltrængt hjælpende hånd med ESDH-/ECM-arbejdet, men også identificere forhold, der gør det påkrævet at overvåge AI.

Åbne systemer accelererer mulighederne

Kobling af ESDH-/ECM-system til AI
kan være vanskeligt
Der er forskel på, hvor smidigt de enkelte
ESDH-/ECM-systemer kan kobles sammen
med AI cloud-tjenester. Der kan også være
forskel på leverandørers og implementerings-
partneres kompetencer på området.

Mange leverandører er på et tidligt og afventende stadie i forhold til AI, men vi forventer en accelerering, når der bliver mere konsensus om, hvad AI kan anvendes til inden for ESDH/ECM. Muligheden er i stedet, at man kan få bygget sin egen integration til en ekstern AI cloud-service.

Når vi her i artiklen taler om AI-mulighederne med ESDH/ECM, taler vi således mest om, at vi automatisk sender data ud fra ESDH-/ECM-systemet til AI, og at data fra AI føres tilbage igen.

Eksempler på ESDH-/ECM-opgaver, som AI kan klare

Her følger eksempler på opgaver, som kan automatiseres. Ikke nødvendigvis fuld automatisering, men i højere grad eksempler hvor AI kommer med forslag, som en medarbejder godkender eller justerer.

Visitering, klassifikation og andre metadata

Ikke alle journalplaner egner sig til AI
Rummer din journalplan begreber, som er meget specifikke
for din specifikke kontekst, og som ikke er selvforklarende,
kan det være en udfordring at bruge AI. Store sprogmodeller
(LLMs) er trænet på almindeligt sprog, og vil derfor ikke umiddelbart
forstå sprog, der knytter sig til en særlig kontekst. Journalplaner, hvor
nogle klassifikationer ligger sprogligt tæt op ad hinanden, kan også
være vanskelige, fordi det kræver særlig viden at vælge den rigtige
klassifikation. Du kan læse mere om AI og Large Language Models
(LLMs) i vores FAQ, nederst i artiklen.

Især offentlige kunder har brug for at klassificere dokumenter og sager i forhold til en journalplan, dvs. et antal foruddefinerede kategorier.

Så længe journalplanen består af klassifikationer, som er formuleret nemt forståeligt, og som er gensidigt udelukkende, kan man få et godt resultat med AI. Har man en mere vanskeligt forståelig journalplan, kommer man hurtigt til at opleve problemer.

Læs også: Består AI testen med at automatisere ESDH-/ECM-opgaver?

Man kan også bruge AI til at frasortere indhold, som man ikke ønsker at journalisere. Derudover kan AI løse en række andre opgaver:

  • Hvad er de fem vigtigste emneord?
  • Hvilken af afdelingerne X, Y og Z vil det være mest oplagt at sende sagen til?
  • Hvilke sagsparter omtales?
  • Hvilke kontaktoplysninger nævnes?
  • Er der tale om en presserende henvendelse?
  • Hvilken tidsperiode strækker sagen sig over? (ikke kun dato for modtagelse/oprettelse af sagsakter, men også tidspunkter omtalt i sagsakter)
  • Er der personfølsomme oplysninger?

Alle disse oplysninger kan genereres automatisk og overføres til et ESDH-/ECM-system, hvor en medarbejder kan kvalitetssikre oplysningerne.

Begrænset dokument- og sagsstørrelse
LLMs har begrænsninger på, hvor store tekster
de kan forholde sig til på én gang. Er der tale om
et stort sagskompleks, kan det være nødvendigt
at hakke det op i mindre bidder, som behandles
trinvist. Det kan betyde lidt ringere kvalitet.

Titler og sagsresuméer

Erfaringsmæssigt kan det være en udfordring, at man som sagsbehandler ikke altid får lavet en god titel på et dokument eller en sag ved journalisering. Måske kommer der blot en titel som fx ”Klage”. Her kan man automatisk få genereret en sigende titel og eventuelt også et kort resumé.

Intelligente tjeklister

Instruktioner til AI kan være en kunst
Når man sætter AI til at løse opgaver, som
fx at holde et dokument op imod en tjekliste,
kræver det særlig omhu at formulere
tjeklisten, så den er nem og entydig at forstå
for AI.

Det er ikke nødvendigvis vanskeligt, men
kræver forståelse af, hvordan store
sprogmodeller (LLMs) fungerer og deres
iboende begrænsninger. Vi oplever også, at
det kan kræve flere iterationer, før resultatet
er godt nok.

Når man skriver et brev, som fx et svarbrev fra en myndighed til en borger, kan der være en række kriterier, man ønsker at følge. Det kan inkludere:

  • At brevet starter med det mest væsentlige (fx om der er blevet givet godkendelse eller afslag på en ansøgning).
  • At sproget er forståeligt for almindelige mennesker.
  • At brevet henviser til relevant lovgrundlag.

Dette kan AI hjælpe med. For eksempel, når en sagsbehandler markerer, at en sag er klar til kvalitetssikring, kan udkastet automatisk sendes til AI, som vil evaluere det i forhold til en række kriterier for denne type sager. I sådanne tilfælde kan sagsbehandleren efterfølgende vurdere AI-modellens feedback og gå videre med at sende svaret ud.

Sagsfremstilling

Det kan være uoverskueligt og tidskrævende at sætte sig ind i et stort sagskompleks. Med AI er det muligt at generere et kortfattet overblik over et langstrakt sagsforløb.

Identifikation af handlemuligheder

AI kan foreslå mulige handlinger på en sag og argumentere både for og imod de forskellige handlinger.

God identifikation af handlemuligheder forudsætter, at man har den rette kontekst. Her vil det for den enkelte type af sag være nødvendigt, at man informerer sin AI om kontekst-specifikke forhold. Er der eksempelvis særlige juridiske rammer for sagsbehandlingen, skal denne information indgå i den samlede information, som AI har til rådighed. Dette vil ofte kunne automatiseres.

Anonymisering

For en vilkårlig tekst er det muligt at få fjernet personhenførbare oplysninger. Det gælder både navne såvel som andre personhenførbare oplysninger, fx arbejdsplads, adresse m.v.

AI skal fodres med korrekt kontekst
Når vi bruger AI til sagsunderstøttelse, fx at
skrive udkast til svarbreve, kan det kræve tæt
sammenhæng med retningslinjer og
lovgrundlag. Man er da nødt til at informere
sin AI om den rette kontekst.

LLMs som ChatGPT har en begrænsning på,
hvor meget tekst de kan behandle på én gang,
og dermed også hvor stor en kontekst, man
kan give den at arbejde med. I praksis kan man
derfor ikke i dag fodre den med en hel lov;
man er nødt til at fodre den med konkrete paragraffer.

Selvom det på sigt vil det ændre sig, er AI-
støttet sagsbehandling i dag helt afhængig af,
at man håndplukker det rigtige grundlag for
sagsbehandlingen.

Udkast til sagssvar og andre breve

AI kan generere udkast til breve, fx godkendelser og afslag på ansøgninger. Dette kan ske iterativt, så sagsbehandleren kan se et første udkast og specificere forbedringer af teksten, fx ”Præcisér at ansøgningen primært imødekommes med henvisning til […]”.

Sproglig målretning

AI kan hjælpe med at gøre en tekst, fx et svarbrev, nemmere at forstå for en given målgruppe. AI kan identificere, hvis dele af teksten er vanskelig at forstå og komme med et alternativt forslag til, hvordan teksten kan formuleres.

Styrket søgning

Traditionel søgeteknologi er baseret på ord. Indtaster man fx: ”klage over byggetilladelse”, fås alle dokumenter, hvor teksten indgår. Søgemaskinen kan dog ikke matche det til en tekst, hvor der fx står: ”jeg gør indsigelse mod, at min nabo har fået lov at bygge tæt mod skel”.

Men med AI er det muligt. Frem for at bruge selve ordene som basis for søgning, kan man basere søgningen på betydningen af teksten.

Rent teknisk omsætter AI tekster til en omfattende talkombination (en ”vektor”), og dermed kan en søgemaskine vurdere, hvilke tekster der minder om hinanden. Herunder også hvilke dokumenter, der bedst matcher en søgestreng.

Skift mellem værktøjer kan være en
belastning for brugerne
Ideelt set er det bedst og mest effektivt, hvis
man som medarbejder kan udføre en opgave
fra start til slut, uden at man behøver at skifte
mellem forskellige værktøjer.

Afhængig af hvordan man vælger at
implementere AI, og hvilket ESDH-/ECM-
system man anvender, er der risiko for at ende
med en løsning, hvor medarbejderne skal
skifte mellem forskellige vinduer, lister eller
programmer for at gennemføre en ellers
sammenhængende arbejdsopgave. 

Automatisering

AI bliver først for alvor værdifuldt, når AI sættes automatisk i gang og integreres i medarbejdernes arbejdsproces.

Forestil dig, at du har ansvaret for ESDH/ECM i din organisation, og jeres brugere arbejder primært med dokumenter i Microsoft Teams. Du ønsker at effektivisere processen med at overføre specifikke dokumenttyper til dit ESDH-/ECM-system med minimal manuel indsats. Sådan fungerer processen:

  1. En softwarerobot overvåger baggrunden for nye eller redigerede dokumenter i en eller flere Teams-kanaler.
  2. Robotten anvender AI til at vurdere, om dokumentet bør journaliseres.
  3. Robotten tjekker, om dokumentet allerede findes i ESDH-/ECM-systemet.
  4. Hvis dokumentet er egnet til journalisering, og det ikke allerede er blevet journaliseret, aktiveres AI til at klassificere dokumentet iht. journalplanen, sagsparter, emneord m.v., og derefter generere en overskrift samt et kort resumé.
  5. Dokumentet lægges i kø til journalisering med alle oplysninger præudfyldt.
  6. En medarbejder gennemgår AI-forslagene og sikrer den endelige journalisering.

Denne automatiserede proces letter byrden af manuelt arbejde, øger effektiviteten og sikrer, at vigtige dokumenter altid bliver korrekt håndteret i dit ESDH-/ECM-system.

Beskyttelse af data

Indtil for nylig har offentlige kunder stået over for udfordringer med at anvende amerikanske cloud-løsninger på grund af Schrems 2-dommen om beskyttelse af persondata. Men en ny EU-godkendt aftale har åbnet døren for brugen af amerikanske cloud-tjenester.

Alligevel fortsætter bekymringen om, hvorvidt data hos cloud-udbydere er tilstrækkeligt sikrede. For virksomheder drejer det sig om at beskytte forretningshemmeligheder, mens offentlige kunder har fokus på beskyttelse af persondata.

Perspektiver for AI og ESDH/ECM på sigt

AI vil gradvist blive bedre end mennesker til at administrere store mængder tekst, retningslinjer, arbejdsgange og meget mere. Derfor vil mange af de rutinemæssige opgaver inden for ESDH/ECM på sigt kunne overtages af AI.

Nye kompetencer nødvendige
Store sprogmodeller (LLMs) evner at skrive tekster,
som virker overbevisende; også når de er i modstrid
med retningslinjer og gældende love. Brugen af AI til
produktion af tekster kræver derfor medarbejdere,
der med sikker hånd kan kvalitetssikre indholdet. Det
er en fordel, hvis medarbejderne også kan gennemskue
årsagerne til fejlene og være med til at sikre, at AI
arbejder med de rigtige forudsætninger, fx at AI
anvender det rigtige lovgrundlag.

AI fortsat styret af mennesker

Selvom AI har udviklet sig til at udføre avancerede opgaver, er den stadig underlagt menneskelig tilsyn og styring. Ligesom en virksomhed har brug for ledelse, kan AI ikke fungere uden styring. Det stiller krav om, at medarbejderne forstår teknologien og ved, hvordan de skal overvåge og styre den. En udfordring her er, at AI ofte genererer indhold, der virker overbevisende, selvom det kan indeholde fejl eller være direkte forkert.

I stigende grad vil medarbejdere derfor få en rolle som ‘ledere’ af AI-værktøjer, som de skal styre. Uanset AI’s stigende rolle i sagsbehandling, forventer vi stadig, at der vil være en ansvarlig medarbejder, der er endelig ansvarlig for kvaliteten af sagsbehandlingen, uanset i hvilken grad AI har været involveret.

AI lærer af os og understøtter vores arbejde

“Crap in, crap out”
Føder vi AI med uklart indhold eller
inkonsistente arbejdsgange, kan vi blot
høste middelmådige gevinster med AI.
Derfor er det fortsat afgørende at have
godt styr på sine processer, også når vi
sætter AI til at hjælpe os med dem.

AI kommer til at kunne forme sig efter den enkelte medarbejder og den enkelte virksomhed. Over tid kan AI lære, hvordan vi arbejder, og hvordan den kan understøtte os. Dermed kan AI blive en stærk kilde til værdiskabelse, både i form af bedre kvalitet og højere effektivitet.

Men det forudsætter, at den har et godt grundlag at arbejde med. Skal AI hjælpe os med sagsbehandling, og er vores sagsbehandling af svingende kvalitet, er vi nødt til at aktivt at hjælpe vores AI med at vide, hvad forskellen er på god og mindre god sagsbehandling. Ellers arbejder den blot med, hvad den får stillet til rådighed. Er grundlaget middelmådigt, bliver resultatet det også.

Få en demo hos Devoteam

Hos Devoteam har vi lavet en prototype, der viser, hvordan dokumenter automatisk kan klassificeres ved hjælp af standardværktøjer. Er du nysgerrig på, hvordan den fungerer, kan du tage fat i os via knappen herunder for at høre mere og få en demonstration.

Baggrundsviden om AI og LLM

Ideen om AI stammer helt tilbage fra et projekt på Dartmouth College, USA i sommeren 1956. Selvom teknologien ikke var klar, talte man allerede dengang om, at en maskine ville kunne blive intelligent på samme måde som et menneske.

“The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.”
(uddrag fra forslaget til projektet, formuleret i 1955)

Optimismen har siden været enorm, og alligevel har AI været vanskeligere at realisere, end først antaget. Men de seneste år har vi set en rivende udvikling af AI-teknologier såsom stemmegenkendelse, selvkørende biler, automatiserede produktionslinjer og chatbots. Fra at have været en flyvsk ambition hos mange i årtier, ser vi nu en bred implementering af AI på tværs af sektorer.

Kunstig intelligens (AI) er computersystemer, der er i stand til at udføre opgaver, der normalt kræver menneskelig intelligens, som fx visuel genkendelse, talegenkendelse, beslutningstagning og oversættelse mellem sprog.

AI er mere end fx fleksible søgemuligheder og robot-automatisering (RPA). Begge dele rummer avanceret logik, men ikke nødvendigvis intelligens og forståelse af kontekst. En simpel softwarerobot (RPA) følger en fast systematik, som godt kan være kompleks, men ikke nødvendigvis intelligent.

Teknologien er rå i kanterne
For leverandørerne af AI er time-to-market i disse
år højere prioriteret end helt fejlfri services. Selvom
kernen i teknologien fungerer, er det ikke altid
problemfrit, når teknologien skal rigtigt i brug.

”Large Language Models” (LLM) er en type AI, som især kendes fra ChatGPT. Det en teknologi, hvor en computermodel lærer fra ekstremt store mængder tekst, typisk artikler på nettet, kombineret med, at modellen bliver trænet af mennesker.

Modellen har ikke nogen bevidsthed, selvom det umiddelbart opleves sådan. Den er blot en ekstremt avanceret computermodel, som både kan forstå tekst og selv kan generere tekst, der ser ud som om, den er skrevet af et menneske.

Et godt udgangspunkt er at udforske AI-mulighederne i ens egen kontekst. Hvor findes mulighederne, både på kort og lang sigt? Er der rutineopgaver, som i øjeblikket kræver en betydelig indsats? Hvor stort er gevinstpotentialet?

Dernæst kan man finde et afgrænset og overskueligt projekt. Det kunne være klassifikation af visse former for sager – med manuel overvågning, så eventuelle vildskud bliver fanget af et menneske.

Man kan med fordel afklare rammen på et tidligt tidspunkt: Mange organisationer har en politik for hvilke data, der må forlade matriklen, og hvilke eksterne databehandlere, som man har tillid til i forhold til bestemte typer data. Så brugen af AI kræver derfor også en dialog med dem, der sætter reglerne for behandling af data i organisationen.

De fleste anvendelser af AI rummer ikke voldsomt store omkostninger til AI cloud-services. Prisen på de forskellige services varierer dog kraftigt, og den kan afhænge af, hvordan man konkret anvender den enkelte service. Det er derfor nødvendigt, at man kaster et kritisk blik på økonomien i de tjenester, man anvender.

Den største udgift ligger i at implementere nye arbejdsgange, opbygge nye kompetencer og koble systemer sammen – denne udgift afhænger af den enkelte organisation og ambitionsniveau.

Den rå udgift til at bruge AI cloud-services er beskeden, især når man sætter den i forhold til det manuelle arbejde, som kan automatiseres.

I øjeblikket er prissætningen af ​​AI cloud-services baseret på at opnå høj markedsandel, hvilket holder priserne nede. Med tiden forventes der dog et andet mønster, hvor de AI-services, der let kan udskiftes med en anden leverandør, fortsat vil være prisvenlige. Til gengæld kan unikke services, der enten er målrettet et snævert segment af virksomheder eller blot er overlegne i forhold til konkurrerende tjenester, have en højere omkostning for brugerne.

Der findes open source LLMs, også på dansk, som man kan køre på sine egne computere. Dette giver mulighed for at undgå at overføre persondata og forretningshemmeligheder til cloud-udbydere.

Ikke desto mindre er open source-løsningerne nogle år bagud sammenlignet med kommercielle alternativer. Vi forventer en hurtig forbedring af kvaliteten, men som det er tilfældet i 2023, er open source-modellerne endnu ikke tilstrækkeligt modne.