DIGITALT // ANALYSE – Mens vi alle leger med det nye AI-værktøj og skaber animerede billeder af os selv, skaber andre en helt anden type billeder af dine børn. For fortidens hverdagsbilleder kan blive fremtidens børnepornografi, skriver Karina Muriel Mimoun.
På et online fotodelings-site, hvor anonyme blandt andet deler hverdagsbilleder af andres børn, der bliver seksualiseret i trådene, er der den seneste tid dukket en ny kategori op: AI. Som i computerskabte billeder.
Da jeg opdagede kategorien, forestillede jeg mig billeder af psykedeliske landskaber, mennesker omdannet til tegneseriefigurer og Trump, der bliver anholdt af politiet. Den slags billeder, som private leger med, når de kaster sig over Midjourney eller andre af de AI-værktøjer, der ligger frit på nettet.
Jeg fandt billeder af børn. Børn, der poserer på en måde, børn ikke af sig selv vil posere. Børn i lak og læder. Børn, der kysser. Der var serien “På date med far”
Men jeg fandt billeder af børn. Børn, der poserer på en måde, børn ikke af sig selv vil posere. Børn i lak og læder. Børn der kysser. Der var serien På date med far.
Og så var der en hel sort/hvid-serie af “bedstefar med sine to børnebørn”. I undertøj. Computerskabte billeder, der deles fra de åbne mapper, som ikke kræver kode – de mapper, alle kan tilgå. Omfanget er overraskende stort, og man kan se, at der løbende bliver redigeret og tilføjet i mapperne.
Det stigende omfang af computerskabte billeder oplever også Red Barnet, der står bag anmelderportalen AnmeldDet. En portal, hvor alle anonymt kan anmelde seksuelle overgrebsbilleder af børn.
De sidste tre år har Red Barnet oplevet en stigning i det computergenerede materiale, der bliver anmeldt. I 2020 blev der anmeldt 20 billeder, og i 2023 var de oppe på 1.890. For værktøjerne er klar, nu bliver de brugt, som man kan se i talrækken nedenfor:
2023: 1.890
2022: 257
2021: 22
2020: 18
AI er et onlineværktøj, der kan skabe de billeder, du beskriver for den. Det eneste det kræver er, en meget præcise anmodning – også kaldet et prompt. Et prompt er en kommando eller instruktion, hvor AI får fortalt, hvad vi ønsker af billedet og i hvilkenform. Ud fra instrukserne er AI-værktøjet i stand til at generere et billede. AI skaber billederne ud fra indsamlet data fra nettet. Eller de billeder, brugeren vælger at fodre værktøjet med som udgangspunkt. Et prompt styrer, hvordan tonen, stilen og indholdet af det AI-genererede materiale bliver.
Måske du husker billedeserien af Trump fra 2023 på X (Twitter), hvor han blev anholdt af politiet:
Ved første øjekast var vi mange, der var i tvivl om, hvorvidt det var ægte. AI var i den periode fortsat en sær ny størrelse. Men hvis man zoomede ind på detaljerne i billederne, var der åbenlyse fejl.
I dag er det blevet meget sværere at se, hvad der er animeret og computerskabt, og hvad der er rigtige mennesker
“Look at the centre of the image. Mr Trump’s arm is much too short, and the police officer on the left is grabbing something that more resembles a claw than a human hand. Similarly, if you focus on Mr Trump’s neck, you’ll notice that his head looks as if it’s been superimposed on the image.”
I dag er det blevet meget sværere at se, hvad der er animeret og computerskabt, og hvad der er rigtige mennesker. For ud over at teknologien er under konstant udvikling, skaber AI billeder ud fra data, der er fundet på nettet eller fodret af brugeren. Jo flere data, der bruges som udgangspunkt, jo mere præcist kan den genskabe mennesker. Det betyder i teorien, at jo længere tid den bruges, jo mere præcis vil den blive.
Fortidens billeder bliver fremtidens misbrugsmateriale
AI-teknikken er blevet bedre, noget, jeg fik bekræftet, da jeg var på besøg hos Red Barnet og talte med Nadia Jung Pedersen, projektleder for AnmeldDet-portalen.
Nadia Jung Pedersen er en ud af seks medarbejdere fra Red Barnet, der på skift skal vurdere, om de billeder, der bliver anmeldt på portalen af børn, der enten bliver seksualiseret eller misbrugt, kan anmeldes til politiet.
Og det er ikke en nem øvelse, fortæller Nadia Jung Pedersen. Noget, jeg selv fik en mulighed for at observere. For sammen gennemgik vi et af de billeder, de havde modtaget via AnmeldDet. Det var et billede af en voldtægt af noget, der umiddelbart lignede et 5-årigt barn, hvor der stod tre voksne mænd omkring barnet. Det var virkelighedstro, helt ned til de små detaljer i huden som rynker, modermærker og skygger på de rette steder på kroppen.
Red Barnet kan dog ikke med sikkerhed vide, om det computergenererede materiale er skabt på basis af rigtige børn
Nadia Jung Pedersens trænede øjne vurderede det imidlertid som et AI-computergeneret billede, der ikke var virkelighedstro nok til at være ulovligt, og derfor blev det ikke sendt videre til politiets Nationale Cyber Crime Center, der også går under det mere mundrette navn NC3.
Men hun kan dog ikke med sikkerhed vide, om det computergenererede materiale er skabt på basis af rigtige børn. For den teknik, der blev brugt i går, kan have ændret sig i dag. For både Red Barnet og NC3 ligger der et stort arbejde i at følge med i den teknologiske udvikling.
Selvom nogle af de nuværende AI-værktøjer allerede har retningslinjer for, hvad der må skabes med deres værktøjer, og som Midjourney har sat blokeringer ind på forskellige ord, som ikke kan bruges til at skabe billeder, kræver det blot, at de kriminelle og pædofile lærer at omgå de ord for at få det ønskede udfald.
På det online fotodelingssite kan man da også se, at flere af de anonyme profiler, der deler mapperne med børn, har skrevet, hvilke ord (prompts) der er brugt til at skabe billederne af børn.
IWF Internet Watch Foundation, en NGO, der arbejder for at skabe et mere sikkert internet ved at identificere og fjerne misbrugsbilleder af børn, skriver i en artikel fra oktober 2023, at de har fundet manualer på nettet, der er udviklet til at guide kriminelle og pædofile med at finjustere AI-værktøjerne for at producere mere realistiske billeder.
Vores værste mareridt er gået i opfyldelse. Tidligere i år advarede vi om, at AI-billeder snart kunne blive umulige at skelne fra rigtige billeder af børn, der lider under seksuelt misbrug
Susie Hargreaves, adm. dir. for IWF
Susie Hargreaves OBE, administrerende direktør for IWF opfordrer til internationalt samarbejde om truslerne fra AI:
“Vores værste mareridt er gået i opfyldelse. Tidligere i år advarede vi om, at AI-billeder snart kunne blive umulige at skelne fra rigtige billeder af børn, der lider under seksuelt misbrug, og at vi kunne begynde at se disse billeder sprede sig i meget større antal. Det punkt har vi nu passeret.”
Der er enkelte AI-værktøjer, der allerede er trænet i at lave deepfake-porno med voksne.
AI er en kunstig intelligens, og det, den ikke kan, kan man i teorien bede den om at lære, og hvis den ingen etiske retningslinjer har og ikke løbende opdaterer ord, der skal blokeres, så er alt i realiteten muligt.
Hverdagsbilleder misbruges
I oktober 2023 blev en børnepsykiater i Charlotte i USA idømt 40 års fængsel for at have misbrugt en mindreårig og for at have produceret og delt seksuelt misbrugsmateriale med børn.
Ifølge retsdokumenterne havde den dømte brugt AI-værktøjer til at ændre billeder af påklædte børn til computergenereret seksuelt overgrebsmateriale med børn. Et af billederne, der var blevet brugt, var optaget under en skoledans, et andet var et minde fra et barns første skoledag. Helt almindelige hverdagsbilleder var også blevet til seksuelt overgrebsmateriale med børn.
I 2020 opdagede jeg en dansk mand på et russisk fotodelingssite og skrev om det her i POV. Bag en anonym profil havde han delt 1.111 billeder af over 500 forskellige danske børn, der ifølge ham selv var billeder, han havde “fundet” på nettet.
AI-værktøjerne kan skabe næsten alt, hvad du beder om. Det kan være eksisterende og helt uskyldige hverdagsbilleder af børn, der bliver omdannet til nøgenbilleder
Billederne var som udgangspunkt stjålet fra Facebook og Instagram, og da jeg søgte på billederne med et billedsøgningsværktøj, der ligger frit tilgængeligt på nettet, fandt jeg frem til flere af børnenes forældre.
Kun en af dem valgte at politianmelde. “Det er jo, hvad der kan ske, når man deler billeder af børnene,” var der en mor, der udtalte. Hun valgte ikke at anmelde det.
I starten var jeg overrasket over den store mængde hverdagsbilleder af børn, der blev delt af anonyme profiler fra hele verden. Børn i undertøj. Badetøj. Hverdagsbilleder af glade børn. Men i dag ser jeg et helt andet marked for data, der er ved at blive skabt. For nye billeder er også tilgængeligt materiale, der kan bruges til at skabe nyt computergenereret overgrebsmateriale på børn.
For AI-værktøjerne kan skabe næsten alt, hvad du beder om. Det kan være eksisterende og helt uskyldige hverdagsbilleder af børn, der bliver omdannet til nøgenbilleder. Den kan face-swappe og sætte børnenes ansigter ind på allerede produceret pornografisk materiale. Eller selv skabe alt fra bunden – med børnenes ansigt.
Ifølge en rapport fra Red Barnet har Europol fundet eksempler på, at eksisterende overgrebsmateriale med ægte børn bliver delt med et animationsfilter over, så gerningspersoner kan distribuere det ulovlige overgrebsmateriale for senere at tage filteret af.
Kort sagt betyder det, at de billeder af dine børn, som du deler på nettet, kan ende som seksuelt overgrebsmateriale på dine børn, der bliver spredt blandt verdens pædofile.
Lovgivningen løber efter AI
Kunstig intelligens kan løse opgaver på en måde, der imiterer menneskelig intelligens. AI kan i teorien gøre, hvad du beder den om, og det ved de kriminelle og de pædofile, der allerede benytter sig af værktøjet, udmærket.
Med vores digitale virkelighed, der konstant er under udvikling, er der kommet flere mere digital-kyndige kriminelle til, der grundet deres store viden om, hvordan man kan være anonym på nettet, kan være to skridt foran politiet – og lovgivningen.
Det er samme teknologi, de pædofile kan benytte sig af, når de deler seksuelt overgrebsmateriale på børn.
Det første kan løses med løbende uddannelse og flere ressourcer. Det sidste bør løses ved, at den nuværende lovgivning bliver justeret løbende i forhold til den teknologiske udvikling. Noget, der næsten er umuligt. For lovgivning bliver ikke justeret på en dag og kan være forældet, når den bliver godkendt.
Det prøver Red Barnet at gøre noget ved, for de sidder med hænderne i maskineriet og ser konsekvenserne af udviklingen. Derfor har de også i december 2023 lavet en anbefaling til Justitsminister Peter Hummelgaard, om at få strammet op på den nuværende lovgivning for “at udvise rettighed omhu over for den nye teknologi ved at beskytte børn mod at blive gjort til genstand for voksnes seksuelle tilfredsstillelse”.
For seksualisering af børn, uagtet om det er AI eller rigtige børn, bør ikke være lovligt. Jeg spurgte justitsminister Peter Hummelgaard, hvor langt de er i processen:
“Seksuelle overgreb mod børn er en af de mest modbydelige forbrydelser, der findes. Derfor har regeringen et stort og vedvarende fokus på at komme digitale krænkelser og overgreb mod børn til livs.”
“Red Barnet gør en stor og vigtig indsats på området, og jeg deler deres ambition bag forslagene om, at vi i videst muligt omfang skal arbejde for at sætte ind mod online billedmateriale, der seksualiserer børn.”
“Jeg mener, at vi skal gå så langt, som vi overhovedet kan for at beskytte børn og unge mod overgreb. Derfor er der også et arbejde i gang i Justitsministeriet med at undersøge, om der er grundlag for at skærpe lovgivningen,” svarer Hummelgaard.
Nogle vil nok kalde det et standardsvar. Jeg vil dog vove at kalde det håb.
Hver gang du lægger et billede ud af dit barn på sociale medier, og det måske efterfølgende bliver delt online blandt tusindvis af pædofile, kan de samme pædofile efterfølgende gå ind og søge på ansigtet og her finde frem til flere billeder af dine børn, som du har lagt ud
På det online fotodelings-site under kategorien AI er der de seneste timer blevet ændret i tre mapper med AI-computergenererede billeder af børn. Jeg tog et screenshot af et barns ansigt, der poserede i lak og læder, og lagde det ind på et online billed-søgningsværktøj, for at se, om ansigtet var baseret på et ægte barn. Altså alene af ansigtet.
Jeg blev blokeret, fordi jeg flere gange, havde søgt på børnebilleder til research. Hvis ikke andet, så kan det berolige os for en stund, for det betyder, at der er fokus på emnet – også på billede-søgningsplatforme.
For du skal huske på, at hver gang du lægger et billede ud af dit barn på sociale medier, og det måske efterfølgende bliver delt online blandt tusindvis af pædofile, kan de samme pædofile gå ind og søge på ansigtet og her finde frem til flere billeder af dine børn, som du har lagt ud. Og finde frem til dig. Og så er der ikke langt til at finde ud af, hvor du og dine børn bor.
I mellemtiden bør du overveje, hvilke billeder af dine børn du bør dele på nettet. Og om du overhovedet bør gøre det.
Modtag POV Weekend, følg os på Facebook – eller bliv medlem!
Hold dig opdateret med ugens væsentligste analyser, anmeldelser og essays i POV Weekend – hver fredag morgen.
Det er gratis, og du kan tilmelde dig her
POV er et åbent og uafhængigt dansk non-profit medie.
Har du mulighed for at bidrage til vores arbejde? Bliv medlem her