Dataetik handler ikke om data men om mennesker

I en tid hvor vi frygter, at selvkørende biler vælger at køre ind i de forkerte ved et uheld, hvor vi er nervøse for, at politiets AI fejlagtigt fokuserer på enkelte grupperinger, eller at samkøring af borgerdata overskrider vores personlige grænser, er diskussionen omkring dataetik og kunstig intelligens vigtigere end nogensinde før.

Dataetik handler ikke om data men om mennesker

Af Birgitte Hass, adm. direktør i IT-Branchen, cand.scient. fysik, matematik og datalogi.

Det kom også til udtryk, da Regeringen lancerede sin nationale strategi for kunstig intelligens, hvor de også præsenterede seks etiske principper som det fundament, strategien hviler på.

Overordnet fine principper om selvbestemmelse, værdighed, ansvarlighed, forklarlighed, lighed og udvikling.

Målet, om at den etiske tilgang skal være den danske og europæiske styrke, er rigtigt set. Vi kan ikke konkurrere med Kina og USA på investeringer, men på en tilgang der er forankret i demokratiske principper og respekt for den enkelte.

Etik skal være et forretningspotentiale – ikke en spændetrøje

Djævlen ligger dog i detaljen. Hvis regeringen virkelig mener, at AI ikke må fjerne menneskets selvbestemmelse eller kunne gøre skade på mennesker, ja så kan det blive svært at få selvkørende biler på gaden eller få en AI til at træffe sagsafgørelser i det offentlige.

Styrken og forretningspotentialet i AI ligger netop i evnen til at træffe beslutninger på egen hånd, og derfor skal vi passe på, at principperne ikke bliver en spændetrøje for erhvervslivets muligheder.

Dermed ikke sagt, at dataetik skal glemmes. Tværtimod. Vi skal bare huske, at dataetik i virkeligheden ikke handler om data og teknologi – men om mennesker.

Udfordringen er mennesket ikke data

Det er mennesker, der skal fodre den kunstige intelligens med såvel de regler, den skal arbejde ud fra og de data, der er grundlaget for løsninger.

Mennesker har både bevidst og ubevidst hyppigt en holdning. Meninger der påvirker det, de arbejder med, og som dermed bliver subjektivt – eller “biased” som vi siger. Den kunstige intelligens kan derfor blive ”smittet” med disse menneskelige vurderinger, så den ikke arbejder med en neutral tilgang til data.

Naturligvis skal det ikke afholde os fra at bruge kunstig intelligens og data, men der opstår nemt en række etiske dilemmaer. Hvordan sikrer man f.eks., at data ikke på forhånd er biased, eller at algoritmen, der behandler data, ikke er det, hvis man ikke selv er bevidst om egne bias?

Hvis man f.eks. historisk (og uden at tænke nærmere over det) oftest har valgt en ældre mand internt fra organisationen til en bestemt lederstilling, hvordan sikrer man så, at en AI ikke per automatik fravælger kvinder, yngre mennesker og eksterne kandidater i en evt. automatisk jobmatchproces?

Algoritmen er ikke som udgangspunkt ond

Jeg er ikke i tvivl om, at alle som udgangspunkt ønsker at programmere deres algoritmer til at være objektive og saglige. For det giver det mest værdifulde output. Men som vi ved, så betyder ”Garbage in” også ”Garbage out”, da output aldrig bliver bedre, end det man fodrer maskinen med.

Tværtimod kan de utilsigtede biaser accelerere, når først den kunstige intelligens lærer og forbedrer sig selv. Det så vi for nyligt med en chatbot, der på ganske få timer forvandlede sig til en nazistisk propagandamaskine på baggrund af brugernes målrettede hadske datainput.

Ofte er der ikke et sort/hvidt svar til, hvad der rigtigt og forkert mht. algoritmer og kunstig intelligens, og derfor er det også ekstremt vigtigt, at vi løbende stiller de rigtige spørgsmål i forhold til vores intelligente løsninger, så vi bedst muligt undgår bias og dermed forkerte beslutninger.

NÅR computeren træffer afgørelser uden menneskelig indblanding, bør beslutningen derfor som minimum være: Oplyst, gennemsigtig, overholde retssikkerheden og give mulighed for klageadgang til et menneske, hvis man er uenig i afgørelsen.

Og her er det dig som virksomhedsleder, politiker og menneske, der har ansvaret for, at det sker.

Fra principper til praksis

Kunsten ligger i at omsætte principper til praksis. For AI-algoritmen bliver ikke bedre end det input, vi giver den. Derfor bliver det afgørende, at vi udvikler vejledninger, guides og best practice til, hvordan man udvikler, implementerer og bruger AI rigtigt.

Vi er som mennesker alle biased. Derfor er målet ikke at gøre den AI-baserede afgørelse ligeså god som menneskelige beslutninger, men bedre. Lykkes det, så kan vi i fremtiden træffe beslutninger på et fundament, der er mindre biased af vanetænkning og fordomme i forhold til f.eks. køn, alder og etnicitet.