Tilbage i 2015 blev et nyt landsdækkende digitalt afklarings- og dialogværktøj taget i brug i jobcentrene. Et værktøj der på baggrund af objektive data og subjektive spørgsmål er med til at skabe en dataprofil på den enkelte arbejdsløse.
Ved hjælp af kunstig intelligens kommer værktøjet med en statistisk baseret analyse om hvorvidt, en arbejdsløs borger er i risiko for at blive langtidsledig.
Men det har mødt stor kritik. Blandt andet for at diskriminere på baggrund af etnicitet og fordi nogle forskere mener, at det simpelthen er urimeligt at stemple ledige på baggrund af dataprofilering.
Men er en AI i jobcentrene en hjælpende hånd eller en stemplende adfærd?
Det sætter vi fokus på i Podcasten Blinde Vinkler, der denne gang handler om AI i jobcentrene (32:00 minutter).
Biased eller statistisk betydende?
Forestil dig, at du har meldt dig ledig. Men på dit første besøg på Jobcenteret finder ud af, at sagsbehandleren sidder med et dokument, der siger, at du har forhøjet risiko for at blive langtidsledig.
En vurdering der lavet på baggrund af en algoritme, og hvor din forældres etnicitet bl.a. spiller en stor rolle.
Ville du føle dig dømt ud på forhånd – eller ville du sætte pris på at blive gjort opmærksom på risikoen?
For Telli Betül Karacan, der netop var færdiguddannet med en kandidat i statskundskab, kom det som en overraskelse, at hendes forældre, der oprindeligt er kurdere fra Tyrkiet, havde indflydelse på jobcenterets vurdering af hendes mulighed for hurtigt at få et job.
”Jeg undrede mig over, hvorfor den information sammen med min alder, allerede var udfyldt i skemaet. Hvorfor er det relevant for mine jobmuligheder, hvor mine forældre kommer fra? Det burde jo være langt mere relevant, hvilken uddannelse jeg har,” fortæller Telli Betül Karacan i podcasten.
Da hun spurgte sagsbehandleren, fik hun da heldigvis også at vide, at hendes uddannelse havde større vægt i forhold til den endelige vurdering, men at etnicitet statistisk set også vejede tungt i forhold til risikoen for langtidsledighed.
”Selvom det sikkert er en grund til det, så er der bare en risiko for yderligere marginalisering. For hvordan bryder man ud af de kasser, hvis systemet allerede har kategoriseret en negativt på den måde?” spørger hun.
Der skal laves AI-løsninger i det offentlige
Thomas Hildebrandt, professor på Københavns Universitet, er enig med Tellis i, at det kan være stigmatiserende at blive kategoriseret på den måde. En problemstilling han over de seneste år har kigget nærmere på.
Han er nemlig projektleder for forskningsprojektet Ecoknow, der kigger på, hvordan man med bl.a. brug af kunstig intelligens kan indsamle data fra tidligere sagsforløb og bruge dem til at forbedre fremtidige sagsforløb.
På baggrund af flere interviews og analyser af forskellige offentlige sagsgange, er han kommet frem til, at den største udfordring faktisk ikke ligger i at blive kategoriseret, selvom det godt kan føles urimeligt at blive sat i risikozonen.
”Den største udfordring ligger i at finde ud af, hvad der rent faktisk er bedst for den enkelte borger. For det er ikke altid, at det rigtige er at komme hurtigst muligt i job. Derfor handler det om, at man opbygger løsninger og systemer, der giver større mulighed for, at sagsbehandleren og borgeren kan tage en ordentlig snak om situationen,” siger Thomas Hildebrandt i podcasten.
En anden udfordring med brugen af algoritmer er, at både borgeren og sagsbehandleren kan føle, at det er svært at udfordre en anbefaling, der er kommet fra en AI. Især hvis det er uklart, hvordan den er kommet frem til sit bud.
Derfor anbefaler Thomas Hildebrandt også, at man allerede inden man udvikler og implementerer en AI i det offentlige nøje diskuterer fordelene og holder det op imod risikoen ved at benytte algoritmer i sagsbehandlingen.