Tilliden til AI er altafgørende

Hvordan bør kunstig intelligens bruges? Og er det overhovedet etisk ansvarligt at bruge AI på følsomme områder, eller et det uansvarligt netop ikke at bruge det? Disse problemstillinger tages der fat i i det nye afsnit af IT-Branchens podcast Blinde Vinkler.

I fjerde del af IT-Branchen og IDAs podcast Blinde Vinkler dykker tech-journalist og vært, Marie Høst, ned i fordele og bekymringer omkring brugen af kunstig intelligens i det offentlige.

Med som gæster er Mikael Munck, CEO i 2021.ai, som udvikler AI-løsninger til både det offentlige og det private, og Birgitte Eiriksson, der er vicedirektør og advokat i tænketanken Justitia og en del af Dataetisk Råd.

Du kan høre del fire her, hvor du også finder IT-Branchens andre podcasts.

AI skal være beslutningsunderstøttende

Anvendelsen af AI i den offentlige sektor er stødt stigende og her forventer 91% faktisk, at de vil bruge kunstig intelligens om bare tre år.

Når Mikael Munck fra 2021.ai er rundt i de danske kommuner, oplever han også, at interessen for AI er stor og mange er overraskede over, hvor meget man allerede i dag kan gøre med teknologien. Men han oplever samtidig en vis forsigtighed overfor de juridiske og etiske aspekter.

I Danmark har vi nemlig set flere tilfælde, hvor kunstig intelligens i det offentlige har mødt stor kritik – mest kendt er Gladsaxe-modellen.

Hos 2021.ai har man dog haft succes med implementering af AI bl.a. i et digitaliseringsprojekt for Norrtälje Kommun i Sverige, hvor de havde udfordringer med at håndtere en stigning i sager om børnemistrivsel.

Nødvendigt for en sådan implementering af AI er det at skabe tillid til teknologien.

”Når man arbejder med AI i det offentlige, er det vigtigt at gøre det tilgængeligt i et format som folk er vant til at arbejde med og det er vigtigt, at det er og opfattes som beslutningsunderstøttende. Hvis det ikke er tilfældet, ender vi i et scenarie, hvor folk bliver bekymrede for, hvordan man anvender data og indsamlet viden,” fortæller Mikael Munck.

Når det kommer til spørgsmålet om, hvornår det er ansvarligt at bruge AI, har Mikael Munck to svar til dette.

Det første svar er, at det langt hen ad vejen bliver ansvarligt, hvis man især har styr på transparens, etisk anvendelse og hvis man sikrer at data er i orden.

Som det andet svar på spørgsmålet, siger han følgende:

”Det er ikke ansvarligt i mange tilfælde ikke at anvende AI, fordi der er så store besparelser ved at anvende disse teknologier og de besparelser kan vi godt bruge i det offentlige til noget mere menneskelig omsorg til dem, vi tager os af i de offentlige systemer.”

Grøfterne mellem befolkningsgrupper graves endnu dybere

Når vi snakker om disse offentlige processer er en af de helt centrale problemstillinger, at borgerne ofte ikke selv kan vælge, om de vil deltage heri. Denne interaktion mellem borgere og offentlige myndigheder er årsagen til, at Birgitte Eiriksson interesserer sig for AI.

Hun kæmper for en større gennemsigtighed i myndighedernes anvendelse af borgernes oplysninger for at sikre respekt for borgernes retssikkerhed og deres ret til privatliv.

I Dataetisk Råd har man lavet et vurderingsskema til samkøring af data. Man havde nemlig en opfattelse af, at man måske samkørte for meget data i det offentlige, og at man ikke helt var klar over, hvilke modhensyn der er.

”Anvendelse af ny teknologi og digitalisering har et kæmpe gevinst-potentiale, men der er også faldgruber som man skal være yderst opmærksomme på, når man beslutter at bruge kunstig intelligens og borgernes data. Det var vores indtryk, at det var man måske ikke fuldt bevidste om rundt om i kommunerne, når man begyndte at eksperimentere med dette,” fortæller Birgitte Eiriksson.

Når man som f.eks. offentlig instans skal udvælge, hvilke data den kunstige intelligens skal kigge på, er det ifølge Birgitte Eiriksson vigtigt, at man er opmærksom på at tage de oplysninger ud, som kan betyde at en afgørelse lægger vægt på kriterier, som er usaglige, og som kan føre til at nogen forfordeles.

”Man skal i udviklingsfasen tænke godt i gennem, hvilke oplysninger der er relevante at få med i den givne sammenhæng. Samtidig skal man undgå at der indgår forhold eller oplysninger, som kan betyde, at der kommer diskriminerende afgørelser ud. Det kan f.eks. være, hvis der indgår oplysninger om køn eller alder, når der skal ske matching mellem en stilling og en ansøgningskandidat. Dette har ingen betydning, hvis det er kvalifikationer, man går efter,” fortæller hun.

Det store problem ved brug af AI er ifølge Birgitte Eiriksson, når vi begynder at masseovervåge borgere.

Samtidig kan anvendelsen af AI også være med til at stemple borgere på et tidligt stadie i en offentlig proces f.eks. at man har forhøjet risiko for at blive kriminel. Noget, der kan ødelægge en persons muligheder for at udvikle sig.

Ifølge Birgitte Eiriksson er disse problematikker især gældende for udsatte borgere og til dette siger hun følgende:

”Vores samfund er allerede delt i samfundsgrupper, men vi kommer til at grave de grøfter der er mellem befolkningsgrupper endnu dybere.”

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.