Af Phillip Grønfeldt, Consultant og Bjørn Axelsen, Lead Consultant hos Devoteam.
Kunstig intelligens (AI) stikker hovedet frem i mange IT-systemer for tiden – men hvilke lavthængende frugter kan der høstes på ESDH-/ECM-området, og hvordan kommer man hurtigt i gang? I denne ekspertartikel giver vi indsigt i, hvordan AI kan skabe bedre og mere effektive processer. Derudover sætter vi fokus på, hvilke begrænsninger der følger med teknologien. For selvom AI altid arbejder effektivt, så skal og må teknologien holdes i ørerne.
Med de store AI-sprogmodeller som fx ChatGPT har der åbnet sig nye muligheder for at bruge AI på netop ESDH-/ECM-området. Tidligere krævede det et massivt forarbejde at træne AI.
Journalisering er tidskrævende, og vi ser mange virksomheder og myndigheder, der drømmer om at automatisere journaliseringsopgaven. Vi har derfor kigget på, hvordan AI med de nye sprogmodeller kan give os en tiltrængt hjælpende hånd med ESDH-/ECM-arbejdet, men også identificere forhold, der gør det påkrævet at overvåge AI.
Åbne systemer accelererer mulighederne
Kobling af ESDH-/ECM-system til AI kan være vanskeligt Der er forskel på, hvor smidigt de enkelte ESDH-/ECM-systemer kan kobles sammen med AI cloud-tjenester. Der kan også være forskel på leverandørers og implementerings- partneres kompetencer på området. |
Mange leverandører er på et tidligt og afventende stadie i forhold til AI, men vi forventer en accelerering, når der bliver mere konsensus om, hvad AI kan anvendes til inden for ESDH/ECM. Muligheden er i stedet, at man kan få bygget sin egen integration til en ekstern AI cloud-service.
Når vi her i artiklen taler om AI-mulighederne med ESDH/ECM, taler vi således mest om, at vi automatisk sender data ud fra ESDH-/ECM-systemet til AI, og at data fra AI føres tilbage igen.
Eksempler på ESDH-/ECM-opgaver, som AI kan klare
Her følger eksempler på opgaver, som kan automatiseres. Ikke nødvendigvis fuld automatisering, men i højere grad eksempler hvor AI kommer med forslag, som en medarbejder godkender eller justerer.
Visitering, klassifikation og andre metadata
Ikke alle journalplaner egner sig til AI Rummer din journalplan begreber, som er meget specifikke for din specifikke kontekst, og som ikke er selvforklarende, kan det være en udfordring at bruge AI. Store sprogmodeller (LLMs) er trænet på almindeligt sprog, og vil derfor ikke umiddelbart forstå sprog, der knytter sig til en særlig kontekst. Journalplaner, hvor nogle klassifikationer ligger sprogligt tæt op ad hinanden, kan også være vanskelige, fordi det kræver særlig viden at vælge den rigtige klassifikation. Du kan læse mere om AI og Large Language Models (LLMs) i vores FAQ, nederst i artiklen. |
Især offentlige kunder har brug for at klassificere dokumenter og sager i forhold til en journalplan, dvs. et antal foruddefinerede kategorier.
Så længe journalplanen består af klassifikationer, som er formuleret nemt forståeligt, og som er gensidigt udelukkende, kan man få et godt resultat med AI. Har man en mere vanskeligt forståelig journalplan, kommer man hurtigt til at opleve problemer.
Læs også: Består AI testen med at automatisere ESDH-/ECM-opgaver?
Man kan også bruge AI til at frasortere indhold, som man ikke ønsker at journalisere. Derudover kan AI løse en række andre opgaver:
- Hvad er de fem vigtigste emneord?
- Hvilken af afdelingerne X, Y og Z vil det være mest oplagt at sende sagen til?
- Hvilke sagsparter omtales?
- Hvilke kontaktoplysninger nævnes?
- Er der tale om en presserende henvendelse?
- Hvilken tidsperiode strækker sagen sig over? (ikke kun dato for modtagelse/oprettelse af sagsakter, men også tidspunkter omtalt i sagsakter)
- Er der personfølsomme oplysninger?
Alle disse oplysninger kan genereres automatisk og overføres til et ESDH-/ECM-system, hvor en medarbejder kan kvalitetssikre oplysningerne.
Begrænset dokument- og sagsstørrelse LLMs har begrænsninger på, hvor store tekster de kan forholde sig til på én gang. Er der tale om et stort sagskompleks, kan det være nødvendigt at hakke det op i mindre bidder, som behandles trinvist. Det kan betyde lidt ringere kvalitet. |
Titler og sagsresuméer
Erfaringsmæssigt kan det være en udfordring, at man som sagsbehandler ikke altid får lavet en god titel på et dokument eller en sag ved journalisering. Måske kommer der blot en titel som fx ”Klage”. Her kan man automatisk få genereret en sigende titel og eventuelt også et kort resumé.
Intelligente tjeklister
Instruktioner til AI kan være en kunst Når man sætter AI til at løse opgaver, som fx at holde et dokument op imod en tjekliste, kræver det særlig omhu at formulere tjeklisten, så den er nem og entydig at forstå for AI. Det er ikke nødvendigvis vanskeligt, men kræver forståelse af, hvordan store sprogmodeller (LLMs) fungerer og deres iboende begrænsninger. Vi oplever også, at det kan kræve flere iterationer, før resultatet er godt nok. |
Når man skriver et brev, som fx et svarbrev fra en myndighed til en borger, kan der være en række kriterier, man ønsker at følge. Det kan inkludere:
- At brevet starter med det mest væsentlige (fx om der er blevet givet godkendelse eller afslag på en ansøgning).
- At sproget er forståeligt for almindelige mennesker.
- At brevet henviser til relevant lovgrundlag.
Dette kan AI hjælpe med. For eksempel, når en sagsbehandler markerer, at en sag er klar til kvalitetssikring, kan udkastet automatisk sendes til AI, som vil evaluere det i forhold til en række kriterier for denne type sager. I sådanne tilfælde kan sagsbehandleren efterfølgende vurdere AI-modellens feedback og gå videre med at sende svaret ud.
Sagsfremstilling
Det kan være uoverskueligt og tidskrævende at sætte sig ind i et stort sagskompleks. Med AI er det muligt at generere et kortfattet overblik over et langstrakt sagsforløb.
Identifikation af handlemuligheder
AI kan foreslå mulige handlinger på en sag og argumentere både for og imod de forskellige handlinger.
God identifikation af handlemuligheder forudsætter, at man har den rette kontekst. Her vil det for den enkelte type af sag være nødvendigt, at man informerer sin AI om kontekst-specifikke forhold. Er der eksempelvis særlige juridiske rammer for sagsbehandlingen, skal denne information indgå i den samlede information, som AI har til rådighed. Dette vil ofte kunne automatiseres.
Anonymisering
For en vilkårlig tekst er det muligt at få fjernet personhenførbare oplysninger. Det gælder både navne såvel som andre personhenførbare oplysninger, fx arbejdsplads, adresse m.v.
AI skal fodres med korrekt kontekst Når vi bruger AI til sagsunderstøttelse, fx at skrive udkast til svarbreve, kan det kræve tæt sammenhæng med retningslinjer og lovgrundlag. Man er da nødt til at informere sin AI om den rette kontekst. LLMs som ChatGPT har en begrænsning på, hvor meget tekst de kan behandle på én gang, og dermed også hvor stor en kontekst, man kan give den at arbejde med. I praksis kan man derfor ikke i dag fodre den med en hel lov; man er nødt til at fodre den med konkrete paragraffer. Selvom det på sigt vil det ændre sig, er AI- støttet sagsbehandling i dag helt afhængig af, at man håndplukker det rigtige grundlag for sagsbehandlingen. |
Udkast til sagssvar og andre breve
AI kan generere udkast til breve, fx godkendelser og afslag på ansøgninger. Dette kan ske iterativt, så sagsbehandleren kan se et første udkast og specificere forbedringer af teksten, fx ”Præcisér at ansøgningen primært imødekommes med henvisning til […]”.
Sproglig målretning
AI kan hjælpe med at gøre en tekst, fx et svarbrev, nemmere at forstå for en given målgruppe. AI kan identificere, hvis dele af teksten er vanskelig at forstå og komme med et alternativt forslag til, hvordan teksten kan formuleres.
Styrket søgning
Traditionel søgeteknologi er baseret på ord. Indtaster man fx: ”klage over byggetilladelse”, fås alle dokumenter, hvor teksten indgår. Søgemaskinen kan dog ikke matche det til en tekst, hvor der fx står: ”jeg gør indsigelse mod, at min nabo har fået lov at bygge tæt mod skel”.
Men med AI er det muligt. Frem for at bruge selve ordene som basis for søgning, kan man basere søgningen på betydningen af teksten.
Rent teknisk omsætter AI tekster til en omfattende talkombination (en ”vektor”), og dermed kan en søgemaskine vurdere, hvilke tekster der minder om hinanden. Herunder også hvilke dokumenter, der bedst matcher en søgestreng.
Skift mellem værktøjer kan være en belastning for brugerne Ideelt set er det bedst og mest effektivt, hvis man som medarbejder kan udføre en opgave fra start til slut, uden at man behøver at skifte mellem forskellige værktøjer. Afhængig af hvordan man vælger at implementere AI, og hvilket ESDH-/ECM- system man anvender, er der risiko for at ende med en løsning, hvor medarbejderne skal skifte mellem forskellige vinduer, lister eller programmer for at gennemføre en ellers sammenhængende arbejdsopgave. |
Automatisering
AI bliver først for alvor værdifuldt, når AI sættes automatisk i gang og integreres i medarbejdernes arbejdsproces.
Forestil dig, at du har ansvaret for ESDH/ECM i din organisation, og jeres brugere arbejder primært med dokumenter i Microsoft Teams. Du ønsker at effektivisere processen med at overføre specifikke dokumenttyper til dit ESDH-/ECM-system med minimal manuel indsats. Sådan fungerer processen:
- En softwarerobot overvåger baggrunden for nye eller redigerede dokumenter i en eller flere Teams-kanaler.
- Robotten anvender AI til at vurdere, om dokumentet bør journaliseres.
- Robotten tjekker, om dokumentet allerede findes i ESDH-/ECM-systemet.
- Hvis dokumentet er egnet til journalisering, og det ikke allerede er blevet journaliseret, aktiveres AI til at klassificere dokumentet iht. journalplanen, sagsparter, emneord m.v., og derefter generere en overskrift samt et kort resumé.
- Dokumentet lægges i kø til journalisering med alle oplysninger præudfyldt.
- En medarbejder gennemgår AI-forslagene og sikrer den endelige journalisering.
Denne automatiserede proces letter byrden af manuelt arbejde, øger effektiviteten og sikrer, at vigtige dokumenter altid bliver korrekt håndteret i dit ESDH-/ECM-system.
Beskyttelse af data
Indtil for nylig har offentlige kunder stået over for udfordringer med at anvende amerikanske cloud-løsninger på grund af Schrems 2-dommen om beskyttelse af persondata. Men en ny EU-godkendt aftale har åbnet døren for brugen af amerikanske cloud-tjenester.
Alligevel fortsætter bekymringen om, hvorvidt data hos cloud-udbydere er tilstrækkeligt sikrede. For virksomheder drejer det sig om at beskytte forretningshemmeligheder, mens offentlige kunder har fokus på beskyttelse af persondata.
Perspektiver for AI og ESDH/ECM på sigt
AI vil gradvist blive bedre end mennesker til at administrere store mængder tekst, retningslinjer, arbejdsgange og meget mere. Derfor vil mange af de rutinemæssige opgaver inden for ESDH/ECM på sigt kunne overtages af AI.
Nye kompetencer nødvendige Store sprogmodeller (LLMs) evner at skrive tekster, som virker overbevisende; også når de er i modstrid med retningslinjer og gældende love. Brugen af AI til produktion af tekster kræver derfor medarbejdere, der med sikker hånd kan kvalitetssikre indholdet. Det er en fordel, hvis medarbejderne også kan gennemskue årsagerne til fejlene og være med til at sikre, at AI arbejder med de rigtige forudsætninger, fx at AI anvender det rigtige lovgrundlag. |
AI fortsat styret af mennesker
Selvom AI har udviklet sig til at udføre avancerede opgaver, er den stadig underlagt menneskelig tilsyn og styring. Ligesom en virksomhed har brug for ledelse, kan AI ikke fungere uden styring. Det stiller krav om, at medarbejderne forstår teknologien og ved, hvordan de skal overvåge og styre den. En udfordring her er, at AI ofte genererer indhold, der virker overbevisende, selvom det kan indeholde fejl eller være direkte forkert.
I stigende grad vil medarbejdere derfor få en rolle som ‘ledere’ af AI-værktøjer, som de skal styre. Uanset AI’s stigende rolle i sagsbehandling, forventer vi stadig, at der vil være en ansvarlig medarbejder, der er endelig ansvarlig for kvaliteten af sagsbehandlingen, uanset i hvilken grad AI har været involveret.
Læs også: Skab øget produktivitet og værdi med Devoteams AI-eksperter
AI lærer af os og understøtter vores arbejde
“Crap in, crap out” Føder vi AI med uklart indhold eller inkonsistente arbejdsgange, kan vi blot høste middelmådige gevinster med AI. Derfor er det fortsat afgørende at have godt styr på sine processer, også når vi sætter AI til at hjælpe os med dem. |
AI kommer til at kunne forme sig efter den enkelte medarbejder og den enkelte virksomhed. Over tid kan AI lære, hvordan vi arbejder, og hvordan den kan understøtte os. Dermed kan AI blive en stærk kilde til værdiskabelse, både i form af bedre kvalitet og højere effektivitet.
Men det forudsætter, at den har et godt grundlag at arbejde med. Skal AI hjælpe os med sagsbehandling, og er vores sagsbehandling af svingende kvalitet, er vi nødt til at aktivt at hjælpe vores AI med at vide, hvad forskellen er på god og mindre god sagsbehandling. Ellers arbejder den blot med, hvad den får stillet til rådighed. Er grundlaget middelmådigt, bliver resultatet det også.
Sådan skaber din virksomhed en sikker og velinformeret AI-assistent
Dette white paper giver dig indsigt i nogle af de fordele din forretning kan få ved at skabe jeres egen AI-assistent og en trin-for-trin guide til, hvordan du gør i praksis.
Få en demo hos Devoteam
Hos Devoteam har vi lavet en prototype, der viser, hvordan dokumenter automatisk kan klassificeres ved hjælp af standardværktøjer. Er du nysgerrig på, hvordan den fungerer, kan du tage fat i os via knappen herunder for at høre mere og få en demonstration.
Baggrundsviden om AI og LLM
Ideen om AI stammer helt tilbage fra et projekt på Dartmouth College, USA i sommeren 1956. Selvom teknologien ikke var klar, talte man allerede dengang om, at en maskine ville kunne blive intelligent på samme måde som et menneske.
“The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.”
(uddrag fra forslaget til projektet, formuleret i 1955)
Optimismen har siden været enorm, og alligevel har AI været vanskeligere at realisere, end først antaget. Men de seneste år har vi set en rivende udvikling af AI-teknologier såsom stemmegenkendelse, selvkørende biler, automatiserede produktionslinjer og chatbots. Fra at have været en flyvsk ambition hos mange i årtier, ser vi nu en bred implementering af AI på tværs af sektorer.
Kunstig intelligens (AI) er computersystemer, der er i stand til at udføre opgaver, der normalt kræver menneskelig intelligens, som fx visuel genkendelse, talegenkendelse, beslutningstagning og oversættelse mellem sprog.
AI er mere end fx fleksible søgemuligheder og robot-automatisering (RPA). Begge dele rummer avanceret logik, men ikke nødvendigvis intelligens og forståelse af kontekst. En simpel softwarerobot (RPA) følger en fast systematik, som godt kan være kompleks, men ikke nødvendigvis intelligent.
Teknologien er rå i kanterne For leverandørerne af AI er time-to-market i disse år højere prioriteret end helt fejlfri services. Selvom kernen i teknologien fungerer, er det ikke altid problemfrit, når teknologien skal rigtigt i brug. |
”Large Language Models” (LLM) er en type AI, som især kendes fra ChatGPT. Det en teknologi, hvor en computermodel lærer fra ekstremt store mængder tekst, typisk artikler på nettet, kombineret med, at modellen bliver trænet af mennesker.
Modellen har ikke nogen bevidsthed, selvom det umiddelbart opleves sådan. Den er blot en ekstremt avanceret computermodel, som både kan forstå tekst og selv kan generere tekst, der ser ud som om, den er skrevet af et menneske.
Et godt udgangspunkt er at udforske AI-mulighederne i ens egen kontekst. Hvor findes mulighederne, både på kort og lang sigt? Er der rutineopgaver, som i øjeblikket kræver en betydelig indsats? Hvor stort er gevinstpotentialet?
Dernæst kan man finde et afgrænset og overskueligt projekt. Det kunne være klassifikation af visse former for sager – med manuel overvågning, så eventuelle vildskud bliver fanget af et menneske.
Man kan med fordel afklare rammen på et tidligt tidspunkt: Mange organisationer har en politik for hvilke data, der må forlade matriklen, og hvilke eksterne databehandlere, som man har tillid til i forhold til bestemte typer data. Så brugen af AI kræver derfor også en dialog med dem, der sætter reglerne for behandling af data i organisationen.
De fleste anvendelser af AI rummer ikke voldsomt store omkostninger til AI cloud-services. Prisen på de forskellige services varierer dog kraftigt, og den kan afhænge af, hvordan man konkret anvender den enkelte service. Det er derfor nødvendigt, at man kaster et kritisk blik på økonomien i de tjenester, man anvender.
Den største udgift ligger i at implementere nye arbejdsgange, opbygge nye kompetencer og koble systemer sammen – denne udgift afhænger af den enkelte organisation og ambitionsniveau.
Den rå udgift til at bruge AI cloud-services er beskeden, især når man sætter den i forhold til det manuelle arbejde, som kan automatiseres.
I øjeblikket er prissætningen af AI cloud-services baseret på at opnå høj markedsandel, hvilket holder priserne nede. Med tiden forventes der dog et andet mønster, hvor de AI-services, der let kan udskiftes med en anden leverandør, fortsat vil være prisvenlige. Til gengæld kan unikke services, der enten er målrettet et snævert segment af virksomheder eller blot er overlegne i forhold til konkurrerende tjenester, have en højere omkostning for brugerne.
Der findes open source LLMs, også på dansk, som man kan køre på sine egne computere. Dette giver mulighed for at undgå at overføre persondata og forretningshemmeligheder til cloud-udbydere.
Ikke desto mindre er open source-løsningerne nogle år bagud sammenlignet med kommercielle alternativer. Vi forventer en hurtig forbedring af kvaliteten, men som det er tilfældet i 2023, er open source-modellerne endnu ikke tilstrækkeligt modne.