Må kunstig intelligens tage fejl?

Brugen af kunstig intelligens (AI) og machine learning indtager i den grad det offentlige lige nu, hvor man ser test af alt fra chatbots, intelligente assistenter og AI sagsbehandlere. Men teknologien giver også nogle etiske dilemmaer, som vi skal forholde os til.

Må kunstig intelligens tage fejl?

Der er ingen tvivl om, at der ligger et kæmpe potentiale i at benytte AI til at finde mønstre i sagsbehandlingen, identificere nedbrud og fejl eller til at håndtere borgerhenvendelser hurtigt og effektivt.

95% af de adspurgte embedsmænd i en nylig Microsoft-analyse mener da også, at kunstig intelligens kan være med til at lette opgavepresset i det offentlige. Så det er med god grund, når 63% af de offentlige myndigheder investerer mere i nye teknologier end tidligere.

Med AI’er, der er programmeret til at være mere eller mindre selvlærende, og som kan indsamle, analysere og give svar på egen hånd, dukker der dog også nye udfordringer op, som vi skal forholde os til.

Må en AI også fejle – og hvem har skylden?

Vi har for længst accepteret, at mennesker, uanset hvor dygtige og professionelle de nu engang er, en gang i mellem laver fejl i forhold til indsamling af data, analyser og efterfølgende beslutninger. For på trods af alt er ingen af os ufejlbarlige.

Spørgsmålet er, om vi har den samme accept for fejl, når det handler om kunstig intelligens eller om vi forventer det ufejlbarlige?

Vi kan starte med at slå fast, at uanset om der er tale om mennesker, mekanik eller software, så vil der ske fejl. Det kan ikke undgås. Men al erfaring tyder på, at antallet af fejl falder ganske markant, hvis man bruger selvlærende software til at analysere millioner af data og hele tiden optimerer sine output.

Det har vi bl.a. set i forhold til sundhed, hvor AI’er allerede nu er bedre end speciallæger til at spotte kræftsvulster på scanninger, og dermed kan være med til at sikre, at flere bliver behandlet i god tid.

Men naturligvis kan og vil AI’er også overse ting. Det så man også i ovenstående studie, hvor AI’en ramte rigtigt 94% ad gangene. Men betyder det så, at vi ikke skal bruge AI’en, da den stadig laver fejl og overser kræftsvulster?

Hvem der har ansvaret, og hvad man gør, når kunstig intelligens laver fejl, er en af de væsentlige debatter, som vi bliver nødt til at tage.

Hvis en læge laver fejl i en vurdering eller en behandling, så kan man klage over lægen. Men hvem skal have skylden når det er en computer der har lavet fejlen? Er det lægen der har valgt at bruge den kunstige intelligens, leverandøren der har bygget løsninger, eller en helt tredje?

Får vi ikke taget den diskussion, bliver der muligvis en berøringsangst for at tage en teknologi i brug, som ellers kan være med til at forbedre den offentlige service og måske i sidste ende redde menneskeliv.

Må en robot kigge dig over skulderen?

En software robots evne til at kigge igennem tusindvis af data, sætte dem sammen og analysere disse sker hurtigere og langt mere effektivt, end noget menneske kan gøre det. Data er et fantastisk grundlag til at træffe bedre beslutninger på.

Det er ikke teknologien, der stopper os her. Det er muligt at træffe beslutninger på baggrund af tæt på uendeligt store datamængder om den enkelte borger. Spørgsmålet er da heller ikke længere, om man kan, men om hvornår man skal gøre det, hvilke data man skal anvende, og hvilke grundlæggende rettigheder borgeren har i den forbindelse.

Kunstig intelligens kan utvivlsomt hjælpe os til bedre at vurdere en sag om tvangsfjernelse af børn, at beslutte retten til boligstøtte og i forhold til at finde den rigtige sygdomsbehandling.

Men hvor mange data, og hvilke data er det rimeligt at det offentlige indsamler og anvender for at træffe bedre beslutninger? Det findes der nok ikke et nemt og endegyldigt svar på, og netop derfor er denne diskussion så vigtig at tage.

Der er ingen tvivl om, at potentialet for AI er enormt. Capgemini forudser faktisk, at brugen af AI kan øge det globale GDP med hele 1,4%, svarende til 27,7 billioner kroner allerede om fem år. Så man kunne være fristet til at sige: Hvad venter vi på? Lad os komme i gang.

Men vi har behov for at tage en åben og løbende debat om, hvordan vi bedst bruger kunstig intelligens. For de største barrierer for at accelerere anvendelsen, er ikke teknologien og resultaterne, men nødvendigheden af at balancere mulighederne med tillid og tryghed, så borgerne oplever, at deres ret til privatliv og databeskyttelse er sikret på rejsen.

  • Adm. direktør

    Natasha Friis Saxberg

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *