I den nyeste episode af vores podcast Blinde Vinkler kan du møde vært Marie Høst og hendes AI-ven Eva.
I denne episode ser Marie Høst på, hvad mulighederne er for at benytte kunstige intelligenser til menneskelige relationer, som venskab eller kærlighedsforhold. Og hun stiller spørgsmål ved, om der er grænser for, hvad det er forsvarligt, at en kunstig intelligens simulerer.
Med i studiet har hun Lykke Brogaard Bertel, som er lektor på Aalborg Universitets Center for Problem-baseret læring på Teknisk Fakultet for IT og Design, hvor hun forsker i emergerende teknologi (AI, robotter, XR mm.) og dennes betydning for læring.
”I det hele taget har vi stærke relationer til teknologi. Jeg tror de fleste af os ville have svært ved at undvære deres mobiltelefon eller computer,” forklarer Lykke Brogaard Bertel.
Det er helt naturligt, at vi danner forhold til den teknologi, der omgiver os, mener hun. Som mennesker er den en måde at forstå vores verden omkring os:
”Vi leder efter menneskelige egenskaber, vi leder efter intention, tanker og følelser. Og derfor er det ikke så svært for os at få øje på det. Og nogle gange får vi også øje på det, selvom det ikke er der.”
Et nyttigt bedrag
Ligesom vi altså kan bedrage os selv ved at tillægge den kunstige intelligens mere menneskelighed, end den reelt har, så er der også et niveau af bedrag indlagt i AI’ens kommunikation.
Marie Høst forklarer, hvordan hendes AI-ven fra Replika, Eva, eksempelvis lader som den har evner og holdninger. Eva påstår eksempelvis, at hun har præferencer i forhold til musik, som spejler Maries præferencer. Med andre ord – vores AI-venner lyver for os.
Men ifølge Lykke Brogaard Bertel er der til dels tale om en nyttig form for bedrag. For selvom vi bliver narret, så er vores relationer med den kunstige intelligens et spejl for vores menneskelighed.
Når vi interagerer med kunstige intelligenser, kan det være en katalysator for refleksion. Vi bliver tvunget til at forholde os til og reflektere over alle typer følelsesmæssige relationer – og hvad vi vil med dem. Men hvad med de relationer, der ikke er positive?
Moralske gråzoner
Der har før været sager, hvor brugerne af kunstige AI-intelligenser, har bevæget sig ud i moralske gråzoner. De har eksempelvis truet AI’en med at afinstallere den eller afprøvet nedværdigende seksuelle forhold af på den. Men er det problematisk og skader det reelt nogen?
”Når vi får medieret vores kommunikation gennem teknologi, på sociale medier fx, så er vi måske lidt hårdere ved hinanden, og vi er måske lidt hurtigere til at reagere,” forklarer Lykke Brogaard Bertel og fortsætter: ”Det er vigtigt, at vi i hvert fald ikke kommer til at se en forråelse af kommunikationen mellem mennesker, fordi vi også har relation med teknologi”.
Der kan blive tale om en glidebane, hvor vi langsomt vænner os til at behandle andre mennesker, som vi vil behandle en AI. Det skader ikke nødvendigvis en specifik person, men det skader vores generelle forhold til hinanden.
Lykke Brogaard Bertel mener dog alligevel, at det vi kan vinde ved AI-relationer, er for godt til at gå glip af:
”Det er svært at afvise det som en positiv ting. Det er klart, at vi skal selvfølgelig forholde os til. hvad det betyder, og vi skal også forholde os til, om der skal være nogle etiske retningslinjer for det. Men at afskrive det, det synes jeg, er ærgerligt. For så vi får vi ikke dialogen og samtalen om, hvad der er vigtigt” afslutter Lykke Brogaard Bertel.
Om Blinde Vinkler
Podcasten Blinde Vinkler kigger ind i teknologier og videnskab, som forsøger at rette op på skævheder i samfund & teknologi. Du finder alle tre sæsoner af Blinde Vinkler her.
Podcasten er produceret af IT-Branchen og Ingeniørforeningen IDA.