
VALGTEST // KOMMENTAR – Valgtests og chatbots har en systematisk politisk bias. Det er et demokratisk problem, at uafklarede vælgere påvirkes af en teknologi, der fremstår neutral, skriver Jakob Linaa Jensen, lektor og leder af Center for Internetforskning ved Aarhus Universitet.
Dette indlæg er udtryk for skribentens holdning. Alle holdninger, som kan udtrykkes inden for straffelovens og presseetikkens rammer, er velkomne, og du kan også sende os din mening her.
Forleden kunne man hos TV 2 læse endnu en historie om, at chatbots som fx ChatGPT har en systematisk politisk bias. Konkret havde TV 2 bedt to chatbots om at besvare spørgsmålene i stationens egen kandidattest.
Svarene viste, at chatbotterne ChatGPT og My AI (fra Snapchat) svarede på en måde, der helt systematisk førte til anbefalinger om at stemme på Det Radikale Venstre og også i stort omfang Socialdemokratiet og SF. Man brugte helt rene versioner, dvs. uden at chatbotterne kunne svare på baggrund af brugerens tidligere prompts eller præferencer.
Denne konstaterede bias er ikke et nyt fænomen. Jeg er i tidligere valgkampe, siden ChatGPT blev introduceret, stødt på lignende undersøgelser og har afprøvet påstanden med nogenlunde samme resultat.
Valgtests kan flytte op mod 20 procent af vælgerne, ikke nødvendigvis på tværs af blokke, men i hvert fald på tværs af partier og kandidater
Det er naturligvis et demokratisk problem, hvis de uafklarede vælgere således bliver påvirket i den ene eller anden retning af en teknologi, der påstås at være neutral. Men det viser også noget om de underliggende logikker i store sprogmodeller og bag antagelsen om teknologiens neutralitet.
Sprogmodeller arver bias fra deres træningsdata
At kunstig intelligens på denne måde har en systematisk bias, er velkendt. Basalt set er sprogmodeller som ChatGPT baseret på en ret simpel regnemaskine, der kører beregninger ud fra et enormt datamateriale. Bias ligger ikke så meget i selve processen, men i det materiale, de er trænet på. Datasættene indeholder kulturel, politisk og social bias, som kan reproduceres i chatbotternes svar. Selv hvis udviklerne forsøger at reducere politisk bias gennem moderering og filtrering, vil modellerne stadig afspejle de strukturer og prioriteringer, der findes i deres træningsdata.
Når en chatbot som i dette tilfælde sættes til at gennemføre en valgtest, kan denne bias forstærkes yderligere. Valgtests er heller ikke i sig selv neutrale teknologier. De bygger på et udvalg af spørgsmål, formuleringer og politiske temaer, som alle indebærer normative valg. Selve formuleringen af spørgsmål kan påvirke svarene, og forskning i surveymetoder viser, at selv små sproglige variationer kan have betydning for respondenternes holdninger.

Derudover spiller valget af politiske emner en afgørende rolle. Valgtests må nødvendigvis udvælge bestemte politiske problemstillinger, og dette valg kan indirekte favorisere bestemte partier. Her er teorien om issue ownership central. Ifølge denne teori, udviklet af blandt andre John Petrocik, opfatter vælgerne visse partier som mere kompetente til at håndtere bestemte politiske spørgsmål. Partier ”ejer” således bestemte politiske dagsordener i vælgernes bevidsthed.
Eksempelvis forbindes spørgsmål om kultur, sociale forhold og klima ofte med venstrefløjspartier, mens økonomisk politik, forsvar og immigration typisk forbindes med borgerlige partier. Hvis en valgtest i høj grad fokuserer på klima, lighed eller kulturelle værdier, kan den indirekte favorisere partier på venstrefløjen. Omvendt kan en test, der vægter økonomisk ansvarlighed, national sikkerhed eller migrationspolitik, skabe en fordel for partier på højrefløjen.
Dobbelt bias i valgtests
Når chatbots som her bruges til at besvare en valgtest, kan de dermed forstærke den bias, der allerede findes i testens design. Samtidig kan chatbotten gennem sin dialogiske tilpasning til brugeren fremhæve netop de politiske dimensioner, der ligger tæt på brugerens eksisterende holdninger. Resultatet kan blive en dobbelt bias: både i valgtestens struktur og i chatbottens måde at kommunikere resultatet på.
Med kunstig intelligens’ hastige udbredelse er dette problem først lige begyndt
Min egen forskning i politiske anvendelser af internettet gennem de fem seneste folketingsvalg viser, at valgtestene er populære og anvendes af cirka 50 procent af vælgerbefolkningen.
Man må antage, at de har størst effekt blandt tvivlere og måske især blandt førstegangsvælgere, der ofte har mindst politisk erfaring, og som er nemmest at påvirke, også på tværs af de politiske blokke. Vi ved fra forskning udført af mig selv og af kolleger som Mathias Tromborg fra statskundskab på Aarhus Universitet, at valgtests kan flytte op mod 20 procent af vælgerne, ikke nødvendigvis på tværs af blokke, men i hvert fald på tværs af partier og kandidater.
Og når de tilmed viser en politisk slagside, står man med et demokratisk problem i forhold til idealet om fuldt oplyste vælgere og frie og åbne valg. Med kunstig intelligens’ hastige udbredelse er dette problem først lige begyndt.
POV Overblik
Støt POV’s arbejde som uafhængigt medie og modtag POV Overblik samt dagens udvalgte tophistorier alle hverdage, direkte i din postkasse.
- Et kritisk nyhedsoverblik fra ind- og udland
- Indsigt baseret på selvstændig research
- Dagens tophistorier fra POV International
- I din indbakke alle hverdage kl. 12.00
- Betal med MobilePay
For kun 25 kr. om måneden giver du POV International mulighed for at bringe uafhængig kvalitetsjournalistik.
![]()








og