Af Jakob Leander, Technology & Consulting Director, og Søren Lauritsen, Lead Consultant i Devoteam
Lige så fantastisk perspektiverne for udnyttelse af AI synes, lige så skræmmende er risikoen for uhensigtsmæssige konsekvenser og misbrug. Derfor bør virksomheder ikke kun have øje for teknologiens lyse sider. De bør også have en god indsigt i, hvordan den samme teknologi har en mørk side, da det ellers kan koste dyrt.
AI er en disruptiv teknologi på niveau med internettet og mobiltelefoni. Og vi har langt fra set den fulde effekt. Det er kun halvandet år siden, teknologien eksploderede med OpenAI’s lancering af ChatGPT, og udviklingen vil efter alt at dømme fortsætte med syvmileskridt i de kommende år.
Hav øje for begge sider
Som altid med teknologiske landvindinger er der en lys og en mørk side. AI sætter turbo på dette skisma. Det synes næsten grænseløst, hvad AI kan bidrage med i form af innovation og effektivisering. Tilsvarende åbner teknologien dog også for utilsigtede konsekvenser samt misbrug.
Når virksomheder i disse år opruster med AI, er det afgørende at have øje for denne dobbelthed. Det skal ikke kun handle om fordelene. Det er mindst lige så vigtigt at sætte ind, hvad angår de mørke sider ved AI. De kan deles op i en ekstern og intern dimension.
DE EKSTERNE MØRKE SIDER VED AI
Hacker AI er skræmmende i niveau og skala
De eksterne mørke sider ved AI handler om hackere og andre kriminelle aktører. Vi kan se frem til en voldsom stigning i angreb, da mange af processerne nu kan automatiseres. Med AI kan hackerne samtidig skabe ekstremt troværdigt indhold som phishing-mails eller telefonopkald, hvor AI eksempelvis efterligner CFO’ens stemme.
Vi har allerede set mange eksempler på deepfake-indhold, hvor det er yderst vanskeligt for den gennemsnitlige bruger at gennemskue bedraget. Og det er skræmmende, hvor nemt det er. Devoteam lavede et forsøg, hvor målet var uden forkundskaber at imitere en NATO-generals ordre med AI. Det lykkedes på en halv time.
Hackerne ligger ikke på den lade side, men skaber sofistikerede løsninger i form af “hacker AI”, hvor teknologien bruges til at finde sårbarheder i systemer. Det måske mest ildevarslende aspekt er udviklingen i forretningsmodeller. Det er i dag ekstremt nemt at bruge “Hacking-as-a-Service”, hvor brugere med begrænsede tekniske egenskaber kan få adgang til færdige softwarepakker komplet med instruktioner til at foretage diverse angreb. Nogle hacker-netværk tilbyder endda en hotline. AI løfter således hacking til et hidtil uset niveau, både hvad angår kvalitet og kvantitet.
Tillid under angreb
Alle kan blive ramt af desinformation – individer, virksomheder og hele samfund. I efteråret 2023 florerede der en række historier, også i etablerede medier, om Frankrigs store problem med væggelus. Det førte til et fald i turismen, lukning af skoler og regeringen måtte bruge betydelige ressourcer på at berolige befolkningen.
I marts 2024 kunne de franske myndigheder så fortælle, at det var fake news, og at Rusland var katalysatoren bag mange af de negative historier. Formålet var bl.a. at antyde en sammenhæng mellem væggelus og ukrainske flygtninge.
Denne eskalering med AI rykker ved en af grundpillerne i et demokratisk samfund – tillid. Man kan ikke stole på hverken afsender eller indhold. I 1988 udgav Andrew Grove, den mangeårige leder af Intel, bogen “Only the Paranoid Survive,” der handlede om truslen fra nye teknologier. Titlen er i dag endnu mere relevant. Konstant årvågenhed og skepsis er forudsætninger for ikke at blive svindlet med AI. Det kræver i mange tilfælde omfattende træning af medarbejdere, ligesom virksomheder bør opgradere værktøjer til at bekæmpe hacking og svindel.
DE INTERNE MØRKE SIDER VED AI
Kontrollér AI’s adgang til data
Kigger vi på den interne vinkel for virksomheder, er AI’s performance baseret på de data, den har til rådighed. Derfor skal man holde nøje øje med, hvad man giver teknologien adgang til, og hvordan disse data bliver brugt. Ellers risikerer man, at teknologien bruger og deler data, som kan skade forretningen eller være i strid med lovgivning som GDPR. Der har bl.a. været en række tilfælde, hvor generativ AI fik adgang til sensitive data som adgangskoder og andre fortrolige dokumenter.
Eller tag eksemplet, hvor en ny medarbejder i HR får adgang til en zip-fil med fortrolige data. Filen var ikke blevet slettet i henhold til reglerne. Rettighedsstyringen var altså ikke tilstrækkelig og blotlagde et større problem i virksomheden.
Nøglen er god data governance, altså fuldt overblik over samtlige data, herunder rettighedsstyring, klassifikation, sletning og eftersyn. Kontrollér AI ved at kontrollere dens arbejdsgrundlag, som er data. Data governance er imidlertid en kompleks disciplin, der kræver både opmærksomhed og ressourcer.
AI skal være transparent
En anden risiko er at udvikle AI-løsninger, hvor man mister kontrollen. Dvs. AI får lov til at gøre for meget på egen hånd, fordi løsningen er en black box, eller fordi den menneskelige kontrol af resultaterne er mangelfuld.
Lad os tage et oplagt eksempel som sagsbehandling. Her kan AI gøre en stor forskel ved at automatisere handlinger som at analysere sager i et sagsbehandlingssystem for på det grundlag foreslå beslutninger. Det vil gøre sagsbehandlingen hurtigere, og sagsbehandleren får frigivet tid til at håndtere flere sager.
Men hvad nu hvis teknologien tager fejl ved at forfordele eller favorisere visse befolkningsgrupper, hvis data eksempelvis indeholder bias? Eller løsningen mangler transparens, så det ikke er muligt at gennemskue, hvordan AI er nået frem til konkrete forslag?
Menneskelig gardering og traceability
Problemet med manglende transparens gør sig også gældende, når AI taler med AI, hvilket i stigende grad gør sig gældende både eksternt og internt. Det kan fx være to systemer, der forhandler kontrakter. Hvem træffer her beslutningerne, og bliver de kontrolleret af mennesker?
Det er derfor vigtigt at have HITL (Human-in-the-Loop) og traceability, to forhold som EU’s forordning, AI Act, lægger stor vægt på. Dvs. en effektiv kontrolfunktion, der involverer mennesker samt muligheden for at gennemgå AI’s beslutningsprocesser.
Brug AI som værn
AI kan imidlertid også bruges som sikkerhedsværn, og her er vi tilbage ved dobbeltheden. Et af de stærkeste våben mod hacker AI er netop AI, der identificerer sårbarheder og trusler. Et godt eksempel er Microsofts Copilot for Security, som bruger GPT-4 samt Microsofts egne ressourcer, herunder data fra de 78 billioner sikkerhedssignaler, softwaregiganten behandler dagligt. Copilot for Security er grundlæggende en chatbot, hvor sikkerhedseksperter kan få opdateret information om angreb, trusler og lignende, ligesom løsningen kan analysere kode for at finde eventuelle sårbarheder.
Opsummering
AI er en fascinerende teknologi, der kan gavne samfund og virksomheder på en lang række områder ved at optimere processer, frigøre ressourcer og skabe kreative løsninger. Men som med andre teknologier kan AI’s egenskaber have uhensigtsmæssige konsekvenser eller blive misbrugt af mørke kræfter. Virksomheders succes med AI afhænger af evnen til at forholde sig til både de lyse og mørke sider ved AI.
Læs også: Dataplatforme: Den drivende kraft bag AI innovation
Hvis du vil vide mere om en helstøbt og ansvarlig tilgang til AI, kan du kontakte os via knappen herunder.