Kunstig intelligens er ikke længere blot et værktøj. Den er blevet selve motoren i et globalt kapløb mellem virksomhederne og de it-kriminelle.
Ifølge World Economic Forums ”Global Cybersecurity Outlook 2026” vurderer hele 94% af adspurgte ledere, at AI bliver den mest betydningsfulde kraft for forandring i cybersikkerheden det kommende år.

”AI-udviklingen betyder, at både virksomheder og hackere accelererer deres kapaciteter i et tempo, som vi aldrig har set før, og hvor traditionelle sikkerhedsmodeller har svært ved at følge med. Så rigtigt mange virksomheder og offentlige institutioner står med en ny kæmpe sikkerhedsmæssig udfordring,” siger Martin Skjold Jensen, leder for Capgeminis Digital Trust and Security Consulting og en del af IT-Branchens policy board for cybersikkerhed.
Et våbenkapløb drevet af AI
Rapporten beskriver bl.a., hvordan AI i stigende grad fungerer som en forstærker på begge sider af cyberkrigen.
På den ene side giver AI virksomhederne mulighed for hurtigere trusselsdetektion, automatiseret respons og analyse af enorme datamængder. På den anden side anvender cyberkriminelle og statslige aktører AI til at udvikle mere sofistikerede, målrettede og skalerbare angreb.
Det er derfor ikke overraskende, at 87% af respondenterne peger på AI-relaterede sårbarheder som den hurtigst voksende cyberrisiko i verden.
AI-truslen kommer også indefra
Flere virksomheder har også erkendt, at alene brugen af AI medfører nye trusselsbilleder, som de skal forholde sig til.
Det kan bl.a. være:
- Data der ender de forkerte steder. AI bruges ofte til at behandle tekst, dokumenter, kundedata, kode osv. Hvis medarbejdere kopierer indhold ind i AI-værktøjer, kan der ske læk af fortrolige oplysninger, brud på GDPR/compliance samt deling af interne strategier, kontrakter eller kildekode.
- Flere angrebsmuligheder pga. cloud og systemintegrationer. Mange AI-løsninger kører i skyen og forbindes med diverse interne systemer. Hver integration kræver API-nøgler, tokens og adgangsrettigheder, hvilket øger risikoen for misbrug.
- Prompt injection og AI-manipulation. AI’er kan narres til at gøre noget uønsket, ved at en hacker f.eks. sender en “uskyldig” tekst, der instruerer AI’en i at ignorere regler eller får den til at afsløre interne data.
Andelen af virksomheder, der har processer på plads til at vurdere sikkerheden af AI-værktøjer før de bliver implementeret i virksomheden, er da næsten også næsten fordoblet – fra 37% i 2025 til 64% i 2026.
”Vi ser heldigvis et begyndende skifte. Hvor man tidligere hurtigt og ofte ustruktureret bare gik i gang med at bruge AI, så er der kommet et større fokus på governance, risikovurdering og sikkerhed-by-design. Alligevel mangler mere end en tredjedel fortsat helt basale mekanismer til at vurdere AI-sikkerheden, hvilket efterlader betydelige angrebsmuligheder i en tid, hvor truslerne udvikler sig ekstremt hurtigt,” udtaler Martin Skjold Jensen.
Kapløbet kan ikke bremses men kan styres
Læser man rapporten er det også klart, at cyberkapløbet ikke længere er et teknisk anliggende isoleret til it-afdelingen, men skal styres ansvarligt fra ledelsesgangen.
Rapporten viser tydeligt, at cybersikkerhed i 2026 er blevet et strategisk ledelsesspørgsmål, hvor AI både repræsenterer et forretningsmæssigt potentiale, men også en systemisk risiko.
”AI vil fortsætte med at accelerere trusselslandskabet. Spørgsmålet er derfor ikke, om man bliver en del af våbenkapløbet, men hvordan man vil positionere sig i det. De organisationer, der formår at kombinere AI-drevet innovation med disciplineret sikkerhed, risikostyring og menneskelig dømmekraft, vil stå stærkest. Resten risikerer at blive overhalet – ikke kun teknologisk, men også strategisk,” slutter Martin Skjold Jensen.
Martin Skjold Jensen har følgende enkle råd til, hvordan man får styr på AI-cyberstruslen:
- Lav en klar AI-politik. Beskriv hvilke AI-værktøjer er godkendt (Copilot/ChatGPT Enterprise), hvilke data der aldrig må indsættes (CPR, kontrakter, kundelister) og evt. krav om human review før AI-output bruges.
- Klassificér data. Indfør “AI-sikkerhedsniveauer” så det bliver klart, hvilke data der er offentlige, interne eller strengt fortrolige. Og sørg for at AI kun har adgang til det, den skal bruge (ikke “hele SharePoint”)
- Beskyt mod prompt injection. Det skal forhindre, at AI bliver manipuleret til at lække data eller udføre uønskede handlinger, hvilket er meget relevant, hvis man benytter sig af AI-bots.
- Sikre mod kopiering af data. Opret systemer der blokerer eller advarer ved kopiering af f.eks. CPR-numre, kundelister eller interne dokumenter til ukendte AI-tjenester eller IP-adresser
- Skærp awareness-træningen. Opdatér med AI-eksempler, og hvor der skrives perfekt dansk og CEO-mails er realistiske. Indfør evt. ”stop og verificér”-regel ved hastebetalinger og adgangsændringer
Hvis du vil vide mere
Vores Policy Board for cybersikkerhed arbejder for at italesætte behovet for at højne it-sikkerheden i Danmark og skabe opmærksomhed om it-sikkerhedsindsatser, -trusler og -løsninger.
Hvis du vil høre mere om arbejder eller være med i boardet, kan du kontakte chefkonsulent Troels Johansen.

