AI våben kan selv udpege et mål og trykke på aftrækkeren

Mens AI først og fremmest blev betragtet som en mulighed for at gøre hverdagsopgaver lettere og processer mere effektive, er der nu stigende bekymring for de potentielle skadevirkninger ved AI-drevne våben.

Tidligere på året stod flere danske forskere og eksperter i kunstig intelligens derfor som afsendere på et åbent brev til udenrigsminister Lars Løkke Rasmussen. I brevet opfordrer de samstemmigt den danske regering til at gå aktivt ind og lede indsatsen i at udforme en international traktat mod autonome våben.

Årsagen er nemlig den, at der er flere etiske, juridiske og sikkerhedsmæssige problemstillinger forbundet med autonome våben – og at både udviklingen og anvendelsen af dem skrider frem i et tempo, der overhaler lovgivningens evne til at tilpasse sig og imødekomme de nye udfordringer.

Lyt med når vært Marie Høst i det seneste afsnit af Blinde Vinkler sammen med initiativtager og en af forfatterne bag det åbne brev, Alexander Nedergaard, belyser de sprængfarlige udfordringer, der er med de autonome våben, som, måske allerede nu, er i stand til selv at identificere, vælge og eliminere mål uden menneskelig indgriben.

Udfordringen med regulering: Hvem træffer beslutningerne?

Mens AI rummer utallige fordele for samfundet, fra forbedret sundhedsvæsen til smartere byinfrastruktur, er det i skyggen heraf også vigtigt at huske på, at de samme teknologier også kan anvendes i mere destruktive sammenhænge.

I krigssituationer kan autonome våben blive indsat. Et redskab som allerede har vist sig at spille en stadigt mere afgørende rolle i den verserende konflikt mellem Rusland og Ukraine, hvor man på begge sider sender ubemandede droner afsted for at identificere og nedkæmpe fjenden.

Spørger man Alexander Nedergaard er dette kun starten, og han har derfor en opfordring til, at man får set på de fælles spilleregler, før det er for sent:

Jeg tror, det er noget, vi skal ud at blive enige om internationalt. Hvad der er i orden, hvad der ikke er i orden, og hvad grænserne er for den teknologi, vi bygger – og det er noget, vi skal gøre op med os selv og hinanden.

Hvis man f.eks. begynder at inkorporere AI-teknologier som ansigtsgenkendelse i disse våben, hvor teknologien autonomt beslutter og aktiverer aftrækkeren, er frygten, at det kan føre til situationer, der strider imod humanitære konventioner.

For netop i processen med at definere, hvem eller hvad målet er, møder man med anvendelsen af kunstig intelligens flere komplekse udfordringer. Centralt står tilbage spørgsmålet om, hvor ansvaret skal placeres i tilfælde af civile tab:

“Når et autonomt våben rammer en civil og begår en krigsforbrydelse, så er der et spørgsmål om, hvem som er den ansvarlige. Med kunstig intelligens står vi i en situation, hvor det ikke er helt tydeligt, hvem som er ansvarlig for den beslutning, der blev taget, fordi det var en algoritme. Fordi det var en maskine, som tog beslutningen,” forklarer Alexander Nedergaard.

Den voksende udfordring med autonome våben

Den nuværende debat om reguleringen er på globalt plan spækket med interessekonflikter. Og imens de etiske problemstillinger ved autonome våben hober sig op, er det politiske landskab bag dem lige så kompliceret.

Men hvis ikke vi nationalt såvel globalt går sammen om at finde løsninger, risikerer vi at ende i en situation, som vil gøre verden til et farligere sted:

Jeg er ikke imod at man bruger AI våben. Jeg er ikke imod, at man laver højteknologiske våben. Men der er bare nogle særlige problemer her. Der er nogle grænser, vi bliver nødt til at respektere. Og vi har brug for enighed om, hvad de grænser er.

I den forbindelse peger Alexander Nedergaard på et væsentligt aspekt ved de potentielle risici ved AI-våben. Skalerbarheden. For selv med ganske få personer i besiddelse af disse våben, kan der forårsages massiv skade. Frygten er derfor, at det kan lede til nye våbenkapløb mellem stater.

Det er dog ikke kun udviklingen af våbnene hos stater, der vækker bekymring. En yderligere risiko ligger i de voksende muligheder, der er for selv at konstruere autonome våben. Noget som kan få alvorlige konsekvenser i kampen mod terrorisme og udgøre et helt nyt trusselsbillede.

For efterhånden som teknologien spreder sig og komponenterne i dens udvikling bliver mere tilgængelige, kan selv personer med basale datakundskaber få adgang til den. Ifølge Alexander Nedergaard understreger det netop vigtigheden i, at man i et geopolitisk perspektiv tager situationen alvorligt.

I sidste ende er udfordringen med autonome våben derfor ikke kun et teknisk spørgsmål, men også et spørgsmål om vores værdier, principper og den fremtid, vi ønsker at skabe.

Vær med når Blinde Vinkler går live!

For tiden er kunstig intelligens overalt omkring os lige nu. AI’er står på spring for at hjælpe os ikke bare med de kedelige og repetitive opgaver, men også med vores kreative og skabende opgaver. Og hvad har vi så tilbage som mennesker? Er vi endegyldigt blevet overhalet af maskinerne, når selv kreativitet ikke længere er forbeholdt mennesker?

Det og mange andre spørgsmål stiller IT-Branchen og IDA skarpt på, når vi onsdag den 11. oktober inviterer til Blinde Vinkler Live debat om sammenspillet mellem teknologi og mennesker. Du kan læse meget mere om eventet og tilmelde dig her.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *