Med et dedikeret EU-budget på samlet 1,65 milliarder kroner er åbningen af fire nye testcentre (TEFs) for AI et vigtigt skridt i retningen mod en fremtid, hvor AI-teknologier kan testes i realistiske scenarier, før de implementeres bredt.
Men hvordan tester man en teknologi, der konstant udvikler sig? Hvornår er AI-teknologier ansvarlige nok til at blive en del af vores samfund? Og hvorfor har det taget os så lang tid at indføre disse sikkerhedsnet for fremtidens teknologi?
I denne udgave af Blinde Vinkler tager vi dig med ind i hjertet af disse testmiljøer, hvor vært Marie Høst denne gang har inviteret Martin Brynskov, seniorforsker på DTU Compute, som står i spidsen for et af de nyåbnede test- og forsøgscentre af AI, i studiet.
Ansvarlig udvikling af kunstig intelligens
Med et budget på 1,65 milliarder kroner er de fire Testing and Experimentation Facilities (TEF) et led i Europas ambition om at føre an i udviklingen af ansvarlig kunstig intelligens.
Initiativet kaster derfor også lys på, hvordan testcentrene i fremtiden vil være en afgørende del af en større bevægelse hen imod en mere ansvarlig teknologisk udvikling.
For selvom kunstig intelligens har eksisteret i mange år og været anvendt i diverse teknologier igennem årtier, er årsagen til den øremærkede EU-finansiering, at der, især med fremkomsten af generative sprogmodeller, er opstået et behov for etablerede rammer til at teste AI, før den implementeres i samfundet.
”Der er masser af kunstig intelligens i biler allerede, som prøver at støtte føreren i at komme sikkert frem og sørge for, at man ikke kommer til at forvolde nogen skade. Så hvordan er man nået dertil?,” spørger Martin Brynskov retorisk.
”Det, som vi står overfor nu, det er, at vi har nogle mere generelle AI-systemer og nogle generelle AI-teknologier. Nogle store sprogmodeller, men også alle mulige andre modeller, som kan bruges til rigtig mange ting. Og det er lidt nyt. Så nu sprøjter det jo bare ud med services og AI-enhanced ting og sager om ørene på os.”
To typer af AI
Fra den stationære AI, der kan påvirke vores finansielle systemer eller sundhedspleje, til den mobile AI, der fysisk kan interagere med os i vores daglige omgivelser, viser denne skelnen ifølge Martin Brynskov, de forskellige risici og konsekvenser forbundet med hver type AI.
Og derfor er den centrale udfordring i at overføre AI fra laboratoriet til den virkelige verden heller ikke en teknisk problemstilling, men snarere et spørgsmål om tillid.
”Jeg vil sige, de største udfordringer lige nu, det er at få skabt et flow, hvor man ved, at man kan få testet kunstig intelligens og kunstig intelligens i produkter af. Der er et mismatch mellem dem, der har noget at byde på, og så dem, der egentlig gerne vil købe det, men ikke tør.”
Geopolitik og manglende testning skader tilliden til AI
Samtidigt har både geopolitiske og økonomiske interesser stor betydning, da lande kæmper for at opretholde eller forbedre deres positioner på AI-området.
Og det er en usikkerhed som skaber et komplekst dilemma mellem at adoptere ny teknologi for at forblive konkurrencedygtig, men også sikre, at teknologien er både sikker og ansvarlig inden den rulles ud.
”Den største udfordring er at få skabt tillid omkring nogle af de her teknologier. Og det at få folk til at mødes. Det er faktisk den allerstørste udfordring,” fortæller Martin Brynskov.
Noget som understreger nødvendigheden af grundig testning og validering af AI-systemer gennem initiativer som TEF, for at sikre, at teknologierne er sikre og ansvarlige, før de implementeres, så tilliden til teknologien styrkes.
I podcasten uddyber Martin Brynskov problemstillingerne og giver et indblik i de udfordringer og muligheder, der er forbundet med kunstig intelligens.
Han deler også sine tanker om, hvordan vi kan opbygge tillid til AI og sikre, at teknologien bruges ansvarligt – og hvordan sager som implementeringen af SKATs bolig- eller ejendomsvurderingssystem kunne være undgået.