Dogme 05 – Kunstig intelligens

I en tid hvor kunstig intelligens ikke længere er en fjern fremtidsvision, men blevet til en fast del af vores digitale hverdag, står virksomheder over for nye etiske dilemmaer.

Efterhånden som kunstig intelligens også er blevet en allestedsnærværende del af vores liv, kan det være vanskeligt at vide, hvornår vi interagerer med den.

Vi kan f.eks. chatte med en chatbot på en hjemmeside eller se en video, der er genereret af AI – uden overhovedet at være klar over det, hvis ikke vi bliver gjort opmærksomme på det.

Men med de mange muligheder AI bringer med sig, følger der også et stort behov for at sikre, at teknologien udvikles og bruges på en transparent, ansvarlig og bæredygtig måde.

Derfor er IT-Branchens Bureauledernetværk gået sammen og forpligtet sig til at sætte øget fokus på Ai’s indflydelse, så vi sammen kan lede vejen mod en fremtid, hvor teknologien ikke underminerer vores fælles værdier – men styrker dem.  

Ansvarlig implementering

Diskrimination og datasikkerhed er blot nogle af de udfordringer, vi står overfor, når vi implementerer AI-teknologier i vores arbejdsgange.

Men det har længe også været kendt, at AI’s evne til at generere indhold potentielt kan bruges til at underminere troværdigheden af information på nettet.

Derfor er der behov for, at vi adresserer problemerne allerede nu. Det fortæller landedirektør i det digitale designbureau AKQA, Steffen Blauenfeldt Otkjær:

”Vi anvender allerede kunstig intelligens. Vi er allerede påvirket af de valg, AI foretager. Det handler derfor ikke om fremtiden, men om den virkelighed, vi befinder os i.”

Lovgivningen halter efter

For på trods af at Steffen Blauenfeldt Otkjær tror på, at kunstig intelligens er en katalysator for en nødvendig og positiv udvikling af samfundet, så er der i høj grad behov for at tøjle udviklingen ved at se på de etiske aspekter af teknologien.

For typisk er lovgivningen og udviklingen af teknologien langt fra synkroniseret:

”Ingeniører, der udvikler disse AI-systemer, er drevet af en passion og et enormt ønske om at skabe. Men ser man lidt historisk på det, har udviklingen af nye teknologier oversteget lovgivernes evne til at regulere teknologien på en meningsfuld måde. Det skaber en dynamik, hvor innovationen foregår i et hastigere tempo end udformningen af de nødvendige etiske og lovmæssige rammer.”

”Dette dogme indebærer en erkendelse af, at selvom vi som udviklere måske er drevet af en nysgerrighed og et ønske om at nytænke måden, vi gør tingene på, så må vi stadig ikke glemme vigtigheden af at bygge en sikker og etisk ramme omkring vores løsninger. Det er derfor vores beskedne forsøg på selvregulering som ingeniører,” fortæller Steffen Blauenfeldt Otkjær.

AI’s dobbelte klinge

Hos AKQA har kunstig intelligens længe været en integreret del af hverdagen. Og man bruger her AI til en lang række opgaver, fra kodeudvikling og indholdsskabelse til chatbots, anbefalingsmotorer og søgefunktioner på e-commerce platforme hos en bred vifte af kunder.

Men selvom AI allerede tilbyder mange fordele i det daglige arbejde, er der bekymringer for dens potentiale til at skabe ukontrolleret og misvisende indhold.

Steffen Blauenfeldt Otkjærs største frygt er derfor, at AI-genereret indhold med tiden kan underminere tilliden til informationen på internettet:

”Vi bærer et enormt ansvar for at være transparente omkring brugen af kunstig intelligens i brugergrænseflader. Derfor skal vi alle tage problemstillingen alvorligt. Hos AKQA har vi af den årsag lagt en strategi for en etisk anvendelse af AI, der fokuserer på en åben og transparent kommunikation omkring brugen hos vores kunder.”

“Når det kommer til specifikke anvendelser, som f.eks. chatbots på vores kunders websites, fokuserer vi i samarbejdet på at rådgive om, hvordan man opretter sin egen governance-struktur, der inkluderer overvågning af dialoger og transparens omkring brugen over for brugere.”

AI er en gråzone

Det er vigtigt også at huske på de juridiske implikationer, der kan opstå i forbindelse med anvendelsen.

For der har efterhånden været flere episoder, hvor f.eks. chatbots har givet fejlagtige oplysninger til kunder, som virksomheder senere må stå til ansvar for:

”I en nylig sag ved British Columbia Civil Resolution Tribunal blev et flyselskab holdt ansvarlig for de oplysninger, der blev givet af dets chatbot, selvom den ikke var bemandet af mennesker,” fortæller Steffen Blauenfeldt Otkjær.

”Det forstærker kun behovet for, at virksomheder udviser en større grad af forsigtighed i forhold til, hvordan de bruger AI i hverdagen. De skal sikre sig, at AI-løsninger er lovlige, at de er baseret på data, der er begrænset og ejendomsretligt forsvarligt, og at de er underlagt en effektiv, menneskelig overvågning for at undgå lignende situationer i fremtiden.”

For at imødekomme disse bekymringer anbefaler Steffen Blauenfeldt Otkjær, at virksomheder nedskalerer AI-værktøjerne:

”For at sikre en ansvarlig brug af AI kan man med fordel nedskalere AI-værktøjer. Dette kan ske ved at begrænse de data, som AI-modellerne behandler, så man sikrer, at modellerne kun er trænet på data, som virksomheden selv har rettighederne til,” afslutter Steffen Blauenfeldt Otkjær

Her er de fem dogmer for ansvarlig softwareudvikling

Følgende bureauer har allerede skrevet under på de fem dogmer for ansvarlig softwareudvikling:

Hvis du vil vide mere

Den hurtige vækst i produktionen af digitalt indhold kalder på en omgående indsats for at vi som branche tager ansvar for udviklingen.

Bureauledernetværket i IT-Branchen har derfor udarbejdet fem dogmer for etisk softwareudvikling, som de anbefaler, alle digitale bureauer og udviklingshuse bruger.

Download de fem dogmer for ansvarlig softwareudvikling her.

Kunne du tænke dig at læse mere om arbejdet i bureauledernetværket, kan du gøre det her. Og har du spørgsmål til arbejdet, kan du altid kontakte Anne Sofie Josephsen, chef for forretningsudvikling i IT-Branchen.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *