INVIs chefanalytiker: De tre røde linjer for brugen af AI i Politik
INVIs chefanalytiker Sofie Burgos-Thorsen er blevet interviewet til magasinet AI Portalen om muligheder og faldbruger, når man bruger kunstig intelligens i politik og offentlig forvaltning.
Udgangspunktet er den opsigtsvækkende case fra Albanien, hvor regeringen har udnævnt AI’en Diella til minister med ansvar for at udvælge og automatisere offentlige udbud. Det vil sige, at en AI nu skal træffe beslutninger, som vi normalt ville overlade til mennesker.
Sofie er - for at sige det pænt - ret skeptisk overfor Diella-konceptet og kommer i stedet med tre “røde linjer” for brugen af AI i politik:
Ingen AI uden klart menneskeligt ansvar.
Ingen automatisering uden gennemsigtighed og klageadgang.
Ingen symbolske roller, der forveksler teknologi med demokrati.
Læs hele interviewet hos AI Portalen. Se et uddrag nedenfor:
For at forstå, hvorfor Albaniens eksperiment er problematisk, er det nødvendigt at grave et spadestik dybere i den forestilling, der ligger til grund for det: idéen om, at teknologi kan være neutral.
I den offentlige debat opstilles ofte en dikotomi mellem teknologi og politik. Teknologi fremstilles som objektiv, datadrevet og fri for de menneskelige fejl og følelser, der plager politiske beslutningsprocesser. Politik derimod opfattes som subjektiv, beskidt og præget af kompromisser og særinteresser. I den fortælling bliver AI til et lokkende alternativ – en maskine, der kan levere de fejlfri, upartiske beslutninger, som demokratiet tilsyneladende har så svært ved at producere.
Men ifølge Sofie Burgos-Thorsen er denne forestilling grundlæggende forfejlet. AI-systemer er ikke neutrale observatører af virkeligheden. De er produkter af menneskelige valg – fra udvælgelsen af træningsdata til designet af algoritmerne og definitionen af, hvad “succes” betyder for systemet.
“Visioner om teknologi som neutrale eller objektive tekniske elementer bygger simpelthen på en falsk præmis. Uanset hvilke AI-teknologier vi bruger, så er de trænet på bestemte data og har indbygget bestemte værdisæt i sig.”
Træningsdata er per definition historiske. De afspejler fortiden – med alle dens uligheder, fordomme og magtstrukturer. Når et AI-system trænes på disse data, lærer det ikke bare at genkende mønstre. Det lærer også at reproducere de skævheder, der ligger indlejret i dataene. Og når systemet derefter præsenteres som neutralt, får disse skævheder en ny og farlig legitimitet.
Sofie Burgos-Thorsen er ikke i tvivl om, hvad der er på spil:
“Neutral teknologi findes simpelthen ikke. Og myten om, at der findes en fuldstændig unbiased, neutral teknologi, som kan tage beslutninger uden at være fedtet ind i al mulig menneskelig vurdering, er en af de farligste fejlslutninger for demokratiet. Den myte kan denne albanske case komme til at forstærke.”