Regeringen er ikke i tvivl om, at der ligger et enormt potentiale i kunstig intelligens f.eks. i forhold til at skabe økonomisk vækst, bedre velfærd og offentlig service samt til at løse udfordringerne vedrørende den grønne omstilling og mangel på arbejdskraft.
Samtidig ser regeringen behov for at få sat rammer for især tech-giganternes brug og udvikling af AI, som kan håndtere de udfordringer som teknologien også fører med sig.
Derfor har regeringen nedsat en tech-ekspertgruppe, som netop har præsenteret en række anbefalinger til, hvordan man både udnytter muligheder og begrænser skadevirkningerne.
”Der er ingen tvivl om, at vi står overfor en kæmpe mulighed, men også udfordringer. Det er både de store digitale platforme, politikerne, medierne, den enkelte borger og os som samfund, der står med en ny virkelighed foran os. Så vi deler bestemt ekspertgruppens bekymringer, men tror også, at de kan håndteres,” udtaler Natasha Friis Saxberg, adm. direktør i IT-Branchen.
Ekspertgruppen har identificeret fire overordnede problematikker: Informationstroværdighed, børn & unge, ophavsret samt markedsdominans, som de er kommet med løsningsforslag til.
Bekymring 1: Tech-giganternes medansvar for informationstroværdighed på deres platforme
Det første område, som ekspertgruppen fokuserer på, er troværdigheden af information på nettet.
I de forkerte hænder kan AI ifølge ekspertgruppen bidrage til en øget polarisering i befolkningen, svigtende tillid til demokratiske institutioner og dermed skade sammenhængskraften og demokratiet i Danmark.
De anbefaler derfor, at der skal gøres en øget indsats mod skadeligt og vildledende indhold, og at tech-giganterne skal deklarere indhold, der er genereret af AI på deres platforme
IT-Branchen er enig i, at troværdigheden af den digitale information udfordres som aldrig før. Men der er ingen lette løsninger til dette.
”Man kan desværre ikke bare lige lukke for misinformation, som man kan med en vandhane. Digital information fungerer mere som en stor kontinuerlig regnbyge, hvor enkelte dråber indeholder misinformation. Og det er rigtigt svært at opfinde en digital paraply, der helt lukker for misinformation uden at det også går ud over faktuel og vigtig information”, fortæller Natasha Friis Saxberg.
Her er det også vigtigt, at vi fortsætter med at udvikle den gode danske evne til kildekritik, der jo allerede i dag gør, at vi er et af de mest modstandsdygtige befolkninger i verden overfor misinformation.
Men det understreger også bare vigtigheden af generel AI-uddannelse og -dannelse i befolkningen og helt fra barnsben.
Der bruges allerede enorme ressourcer på at forhindre misinformation
De store digitale platforme bruger allerede nu enorme ressourcer på at luge ud i fake news, hadtale og ulovligt indhold.
F.eks. har Meta (Facebook) ansat omkring 15.000 mennesker til at være indholdsmoderatorer og indført AI som gør, at de hver eneste time døgnet rundt fjerner ca. 4.000 stykker hadtale. Og nogenlunde det samme ift. terror-indhold hver time. Dertil skal man lægge selvskade-indhold, porno, mobning, falske profiler (i millionvis dagligt).
Meta arbejder sammen med over 80 faktatjek-organisationer (i Danmark er det tjekdet.dk) ligesom de arbejder tæt sammen med myndigheder, ministerier og efterretningstjenester op til valg for at sikre mod fake news (de fjerner millioner af falske konti hver dag).
Faktisk har de største tech-virksomheder indgået en Tech Accord, for at styrke kampen mod misinformation i det her store globale valgår.
Så kampen fortsætter, og det er godt at se, at der gøres så meget allerede nu for at stoppe misinformation på nettet. Man tør slet ikke tænke på, hvordan nettet ville se ud, hvis disse filtre, AI’er og moderatorer ikke arbejdede i døgndrift for at stoppe den massive mængde.
”Heldigvis er der ingen, der smider håndklædet i ringen. De store platforme som f.eks. Meta har flere tusinde moderatorer, filtre og AI’er til et hjælpe med at skærme os mod misinformation, hadtale og skadeligt indhold. Hver eneste time fjerner de 4.000 stykker hadtale, og nogenlunde det samme ift. terrorindhold for slet ikke at tale om de millioner af falske konti, som de nedlægger hver dag. Så det gøres rigtigt meget allerede, men der kan og skal gøres mere,” siger Natasha Friis Saxberg.
Vi skal også markere godt indhold
I stedet for kun at fokusere på at identificere misinformation, kunne man også blive bedre til at highlighte god information.
F.eks. kan medierne aktivt markere de artikler, hvor de grundigt har faktatjekket alle detaljer, haft mindst to uafhængige kilder og hørt alle parter, inden de publicerede dem. Det samme krav kunne man stille til politikere og meningsdannere, inden de skrev noget på sociale medier.
Det kunne hjælpe borgerne med at finde og vælge nyheder, der er faktuelt rigtige og nuancerede.
Derudover er der behov for massiv oplysning om, hvordan man identificerer og bedst undgår fake news, hadtale og ulovligt indhold.
Det understreger behovet for, at f.eks. teknologiforståelse bliver et obligatorisk fag i folkeskolen, så vi sikrer, at alle børn i Danmark rustes til den virkelighed, der allerede omgiver dem.
”Det handler ikke kun om at identificere misinformation, men i lige så høj grad om også at kunne markere korrekt information om et emne, så vi hjælper brugerne hen mod de rigtige nyheder. Og så skal alle, også politikerne og medierne, blive bedre til ikke bare hurtigt at dele, men stoppe op og lave et ekstra check om det nu også er troværdig information,” slår Natasha Friis Saxberg fast.
Bekymring 2: Beskyttelse af børn og unge mod skadelig anvendelse og udvikling af kunstig intelligens på tech-giganternes tjenester
Allerede i sin første rapportering skrev ekspertgruppen, at der var behov for at beskytte børn og unge mod ikke-alderssvarende indhold, fastholdelsesmekanismer og datahøst.
Regeringen har fulgt op på flere af disse anbefalingerne, bl.a. ved at vedtage et lovforslag, der har hævet aldersgrænsen fra 13 til 15 år, før man kan give samtykke til behandling af personoplysninger. Nu anbefaler tech-ekspertgruppen yderligere tiltag.
Bl.a. mener de, at AI-chatbots som standard skal være slået fra på digitale tjenester som sociale medier og gaming-sider. De anbefaler også, at der udarbejdes en analyse af, i hvilken grad tech-giganters anvendelse af AI bruges til at udnytte sårbarheder hos børn og unge.
IT-Branchen er helt enig i, at der skal tages særligt hensyn til børn og unge, men mener ikke, at dette skal begrænses til AI eller til de store digitale platforme.
”Vi har et generelt og særligt ansvar for at sikre, at børn og unge kan færdes sikkert og oplyst på nettet. Med EU’s AI-Act og DSA er der sat nogle klare rammer for hvordan spillerne skal beskytte brugerne og i forhold til kunstig intelligens. Dem begynder vi nu at se effekten af,” udtaler Natasha Friis Saxberg.
Bekymring 3: Regulering af tech-giganters uautoriserede brug af ophavsretligt beskyttet materiale
En af ekspertgruppens anbefalinger er, at der indføres krav om, at tech-giganterne skal kunne dokumentere, at de ikke har overtrådt ophavsretslovgivningen.
“Det er vigtigt at finde den rigtige balance mellem rettighedsindehaverens beskyttelse og virksomhedernes innovation, så vi både får udnyttet mulighederne og respekteret rettighederne. Her er der allerede EU-lovgivning på plads om brugen af data til udviklingen af kunstig intelligens,” siger Natasha Friis Saxberg.
Ekspertgruppen foreslår også, at håndhævelsen sker gennem Europa-Kommissionens nye AI Office, som bl.a. skal håndhæve AI Act.
Bekymring 4: Tech-giganternes markedsdominans inden for udviklingen af kunstig intelligens
I sine anbefalinger slår ekspertgruppen fast, at det er vigtigt med et frit og lige marked, så forbrugere, virksomheder og offentlige institutioner har et reelt valg blandt AI-systemer. De frygter dog, at tech-giganterne vil sidde på en form for monopol på dette område.
IT-Branchen støtter op om et frit og åbent marked med konkurrerende udbydere af AI-systemer, og vi ser også at der hele tiden dukker nye spillere op på AI-markedet, så det er alt for tidligt at snakke om markedsdominans på et marked i så hastig udvikling.
“Lige nu skyder der et utal af virksomheder og AI-modeller op i hele verden. Nogle lande vælger at eksperimentere med nationale sprogmodeller i større eller mindre omfang. Danmarks position er stadig til bred diskussion. Men uanset, hvilken løsning vi ender med, så er det helt afgørende, at vi arbejder for et solidt dansk aftryk i sprogmodellerne, at vi får afspejlet dansk kultur, kontekst og værdier med afsæt i danske data””, slutter Natasha Friis Saxberg.
Du kan læse mere om de konkrete bekymringer og anbefalinger fra ekspertgruppen i deres publikation “Grænser for tech-giganternes udvikling og anvendelse af kunstig intelligens.“