
ALGORITMER // ESSAY – Er dit feed også blevet et spejlbillede af dig selv, som du ikke kan kende? Mød forskeren Jannie Hartley Møller, der blev suget ned i et nyhedshul af vold og drab. Og læs om hendes forsøg på at komme ud igen.
Det kom snigende. Ikke som et chok, ikke med fanfare.
Første gang jeg fornemmede det, sad jeg i frisørstolen, en nylonkappe stramt om halsen, mens frisøren var gået ud for at hente kaffe til mig. En stille pause. Et mellemrum. Jeg tog min telefon frem og scrollede nyhederne igennem via Facebook. Det føltes mekanisk, som et instinkt snarere end en beslutning.
Som professor i medier og algoritmer ved jeg, at medieforbruget er ligesom en vane, vi kun sjældent opdager, vi har. Og at algoritmerne er designet, så vi bliver hængende og scroller rundt i en uendelighed.
Og jeg savnede på en underlig måde de andre nyheder. Som en ven, du pludselig opdager er gledet ud af dit liv
Jeg scrollede videre, og dér var den: nyheden om drabet i Hjallerup. En pige, tretten år gammel, fundet død og lemlæstet bag varmeværket. Jeg stivnede. Ikke fysisk – det var mere en indre forskydning, som om noget i mig gled ud af stilling.
Algoritmer på sociale medier bestemmer, hvilket indhold du ser i dit feed, baseret på din tidligere adfærd og interaktioner. Et feed er en konstant opdateret strøm af indhold som billeder, videoer og statusopdateringer fra konti og personer, du følger.
Jeg er vokset op i Nordjylland. Jeg spillede håndboldkampe i Hjallerup. Købte plastikting og klappede heste på Hjallerup Marked med mine bedsteforældre. Byen alene sendte mig tilbage til barndommens støvede idrætshaller, forpustede kampe og sukkerkolde sommerdage.

Jeg læste hele artiklen. Detaljerne var få. Politiet udtalte sig ikke. Den dræbtes ekskæreste på atten år var anholdt. Og nu også hendes veninde. Blomster lå i bunker på gerningsstedet. Et billede dokumenterede det hele. Jeg scrollede videre, og dér var endnu en artikel, endnu en opdatering.
Og under en reklame for en ny Netflix-serie: endnu en nyhed om drabet. Historien gentog sig med små variationer, som en sorgens algoritme, der ikke vidste, hvordan den skulle slutte.
Jeg var som så mange andre fascineret af drab og kriminalsager. Ikke på den måde, hvor jeg slugte den ene Jussi Adler-krimi efter den anden – mere som en fascination af mennesker og den ondskab og de tragedier, som brist og svigt kan føre til.
‘True crime’ var som en guilty pleasure for mig – noget klistret og mørkt, som man ikke burde røre ved, men som alligevel klæbede til fingrene. Jeg havde binget de samme serier fra mørke nordiske granskove med ihærdige politikvinder, der gravede sig ned i menneskets mørkeste motiver. Podcasts om indsatte for mord, det viste sig, de måske ikke havde begået.
Og ja – som medieforsker ved jeg, at krimistoffet trækker. At mennesker længes efter en form for narrativ, orden i kaos. At det er almenmenneskeligt.
Men jeg ved også, at et sundt nyhedsforbrug kræver variation. At demokratiet, fornuften, udsynet har brug for andet end drab og mord. Og nu var det andet helt forsvundet fra mit feed.
Artiklen er en del af serien Fredagsessays, hvor Videnskab.dk har inviteret syv forskere til at fortælle om deres forskning i et nyt format. Emnet har været frit, men der har været krav til værktøjerne.
De er blevet opfordret til at bruge narrative virkemidler: Forskerne eller deres informanter er hovedpersonerne, de reflekterer over en udvikling, de har gennemgået – én, vi andre potentielt kan spejle os i. Og de zoomer ind på scener og skriver til sanserne.
Ambitionen er at tilbyde en personlig fortælling med en videnskabelig overbygning, som i bedste fald efterlader dig opløftet – og måske endda med inspiration til at gøre noget anderledes i din hverdag.
Det slog mig – i det øjeblik frisøren kom tilbage med kaffen og lagde boligmagasiner foran mig – at ikke én eneste nyhed i mit feed handlede om andet end drabet i Hjallerup. Ikke én.
Jeg mærkede et stik af skam. Ikke fordi jeg havde læst det – men fordi det var det eneste, jeg så. Og så: en kuldegysning. Algoritmen, tænkte jeg. Den vidste noget om mig.
Havde den registreret, at jeg var vokset op ikke langt derfra? Eller havde jeg bare læst for mange drabssager for nylig? Eller var det fordi, det trods alt var den største breaking news-historie på den dag?
Jeg vendte mig mod frisøren og spurgte, halvt for at dulme uroen:
»Har du hørt om den forfærdelige drabssag i Hjallerup?«
Det havde hun ikke.
Og netop dér blev noget klart for mig. Jeg plejede ikke at være sådan. Jeg plejede at støvsuge avisen for nyheder om politik, verden, klima. Men uden jeg havde set det komme var mit feed blevet én lang fortælling om blod og sorg i et lokalmiljø.
Og jeg savnede på en underlig måde de andre nyheder. Som en ven, du pludselig opdager er gledet ud af dit liv. Jeg genkendte ikke længere mig selv i det spejlbillede, algoritmen satte op over for mig. Det føltes forvrænget. Parodisk. Som om nogen havde lavet en karikatur over min opmærksomhed.
Mens jeg sad der hos frisøren, og de slidte, røde totter af mit hår faldt til gulvet, én for én, besluttede jeg mig for at gå i en form for algoritmisk afvænning. Jeg ville finde ud af, om jeg kunne ændre mit spejlbillede – eller om jeg blot måtte acceptere det.
Måske var jeg virkelig blevet den, algoritmen troede, jeg var. Men hvis jeg skulle tage kampen op, måtte jeg kende min modstander. Så – med en mærkelig blanding af beslutsomhed og desperation – besluttede jeg mig for at søge ind i selve algoritmens maskinrum.
Min søgen ind i maskinrummet er en del af et større forskningsprojekt om data og algoritmers betydning for brugernes brug af medier og nyheder.
Medieforskerens råd til at snyde algoritmerne
Giv så lidt som muligt. Lad være med at like, kommentere eller hænge for længe på opslag, der vækker stærke følelser – alt det bliver brændstof for algoritmen.
Rens historikken. Netflix og YouTube giver dig mulighed for at fjerne elementer fra din visnings- eller søgehistorik, så anbefalingerne ikke cementerer sig.
Slå annonce-personalisering fra. Inde i Metas indstillinger kan du begrænse de kategorier, de målretter mod dig (selvom de stadig tracker dig).
Bloker trackere, der indsamler data om dig. Browser-udvidelser som uBlock Origin, Privacy Badger eller Brave-browseren kan skære meget væk.
Adskil identiteter. Hav forskellige konti til forskellige formål: for eksempel venner, arbejde eller ‘lurker-konto’ (‘kigge-med’-profil). Jo mindre data du samler ét sted, jo sværere er det at ‘sy dig sammen’.
Kronologisk feed. Hvis muligt, vælg et tidslinje-baseret feed i stedet for ‘Anbefalet til dig’.
Tænk over, hvad du ser via apps. Hver gang du åbner Netflix-appen i stedet for at køre via en browser med privatlivsbeskyttelse, sender du ekstra datapakker retur.
Stramme app-tilladelser. Giv ikke apps adgang til kontakter, mikrofon eller lokation, medmindre det er absolut nødvendigt.
Kilde: Medieforsker Jannie Møller Hartley
For vi tror måske, vi styrer vores feed, men i virkeligheden sidder vi i en maskine, der er designet til at forudsige, overtale og forme vores adfærd. Og selv når vi forsøger at gennemskue den – griner lidt af de fejlskudte anbefalinger eller den lidt for ivrige annonce – er spørgsmålet stadig: Hvor meget styrer vi egentlig selv? Og hvor meget bliver vi bare styret?
Dit helt personlige nyhedsmedie
Et begreb, der er vigtigt for den her fortælling, er personaliseringsalgoritmer.
De fungerer som en slags digital kurator (udvælger indhold) – usynlige, men magtfulde. De sidder dybt i maskinrummet på vores nyhedsfeeds, streamingtjenester og sociale medier og afgør, hvad vi ser, hvornår vi ser det, og hvor ofte det dukker op igen.
Men hvad er det egentlig, de gør?
Kort sagt analyserer algoritmerne vores adfærd. De holder øje med, hvad vi klikker på, hvor længe vi læser, hvem vi følger, hvad vi liker, og endda hvornår på dagen vi er aktive.
Målet er at holde os fanget – eller, sagt pænere, at give os mere af det, vi (tilsyneladende) gerne vil have. På godt og ondt. For et nyhedsmedie kan det betyde, at to personer, der åbner den samme app eller nyhedsside på samme tid, kan få serveret vidt forskellige forsider.
Den ene ser politiske analyser, den anden lette livsstilsartikler. Den ene bliver konfronteret med klimakrise og krig, den anden med kattevideoer og sidste nyt om de kongelige.
Algoritmerne kender vi fra sociale medier, hvor de styrer både indholdet i feed’et og de reklamer, vi eksponeres for.
De senere år har flere og flere medier, for eksempel Jyllands-Posten, Danmarks Radio og Ekstra Bladet, bygget den form for algoritmer og installeret dem på deres digitale sites. Danmarks Radio anmoder os nu om at logge ind, netop så de kan målrette deres indhold til os personligt.
Med kunstig intelligens og komplicerede matematiske modeller og beregninger kan de også forudsige, hvad vi måske har lyst til at læse, se eller lytte om en time eller dagen efter.
’Algorithmic creepiness’
Jeg forlod mit kontor på universitetet i Roskilde og tog med et propfyldt tog til JP/Politikens Hus midt på Rådhuspladsen i København. Jeg skulle observere udviklerne, der designede algoritmerne til avisernes nyhedssider.
Igen sad jeg og scrollede hen over nyhederne på Facebook. Forsøgte at undgå dem. Tænkte, at hvis jeg scrollede hurtigt nok, så ville algoritmen måske ikke fange mig.
Mine fingre stoppede alligevel kort op ved en nyhed om retssagen og jeg klikkede. Et billede med blomsterne på drabsstedet dukkede op igen. Jeg læste om den tunge genstand. Om at veninden var blevet løsladt kort tid efter.
Mine øjne flakkede ned over skærmen. Søgende efter motivet, søgende efter svar på, hvorfor den unge pige skulle dø.
Som jeg rullede ind forbi Valby, blev jeg efterladt med min skam over at have klikket. Når jeg nu havde besluttet at ændre adfærd. At forsøge at ændre mit spejlbillede.
De senere år er flere og flere brugere blevet opmærksomme på, at vi ’bliver set’ af algoritmen. Vi får en form for snigende fornemmelse af algoritmisk nærhed, som medieforskeren Taina Bucher kalder for ’algorithmic creepiness’ – når det føles, som om internettet og algoritmerne kender dine tanker bedre, end du selv gør.
Ifølge medieforskeren Taina Bucher oplever mange brugere en slags ‘wow-øjeblikke’, hvor de pludselig bliver bevidste om, at algoritmer ikke bare passivt følger med, men aktivt former det, vi ser, klikker på – og tænker. Det er her, vi opdager, at systemet ikke kun forsøger at forstå os, men også påvirker os.
Ind i maskinen
I algoritmens maskinrum, rummet oppe under loftet i JP/Politikens Hus, havde jeg placeret mig tæt ved udviklerne i det åbne kontorlandskab.
Udviklernes job var at designe den perfekte algoritme. En algoritme, som kunne gøre indholdet mere relevant for de mange nyhedsbrugere, som hver dag scrollede op og ned over deres site.
Skærme på væggen lyste, grafer pulserede og fortalte udviklerne, hvilke nyheder læserne klikkede på, og hvilke de scrollede henover. De data fungerede som input til udviklernes perfekte algoritme, som beregnede og forudså det output af artikler, som læserne blev tilbudt på skærmen efterfølgende.
Mens jeg forsøgte at afkode de mange hvide symboler på sort baggrund på udviklerens computerskærm – en form for hemmeligt kodesprog – forklarede han, hvordan deres personaliseringsmotor var bygget op.
Jeg prøvede at følge med, men det føltes som at høre musik uden at kende og forstå noderne. Udviklerne var som dirigenten i orkestret, men også som komponisten. Et stort ansvar for at forme læsernes billede af virkeligheden hvilede på deres skuldre.
Jeg spurgte udvikleren til højre for mig, hvem der i sidste ende havde ansvaret for, hvad folk så. Han trak på skuldrene:
»Det bestemmer folk jo selv. Og så de matematiske modeller, vi laver, selvfølgelig,« sagde han.
Det gik op for mig, at jeg – med min læsning af opdateringen fra retssagen – havde sendt ham en bekræftelse på, at det spejl, han byggede af mig, var korrekt.
At han havde så meget data på mig, at selv hvis jeg forsøgte at scrolle hurtigt eller undlade at klikke på flere slibrige drab og efterforskninger, ville jeg stadig være fanget.
Fanget i det låste spejlbillede, som udviklerne havde på deres sorte skærme.
At der skulle mere end bare ninjaadfærd fra min side for at slå spejlbilledet itu. I længere tid forsøgte jeg at slette cookies, at undlade at logge ind og at klikke febrilsk på alt andet end drab og kriminalsager.
Milliarder af datapunkter
En utryg fornemmelse sneg sig ind i min krop. Det blev klart for mig, at jeg havde følt mig mere tryg ved, at journalisten valgte nyhederne for mig. At jeg egentlig helst ikke ville være ansvarlig for mine egne dårlige vaner og afhængigheder.
Men at en algoritme nu – på mystisk vis – var blevet medskaber af det billede, jeg fik af verden. Det var jeg ikke tryg ved.
Hvordan kunne jeg genvinde kontrollen og vikle mig ud af tusinder – hvis ikke millioner – af datapunkter og komplicerede matematiske beregninger, lagret på servere i skyer langt væk fra mig?
En rapport fra analysebureauet ’Analyse og Tal’ har kortlagt, hvor store mængder data, otte mennesker efterlader sig. Det viste sig, at deres data, ville svare til længden på tre Eiffeltårne, hvis de blev printet ud på papir. Alt fra Sundhed.dk, streamingplatforme til Aula og nyhedssites lever af den data, vi leverer til dem.
En af de personer, som var med i undersøgelsen, kørte en Tesla-bil, og det viste sig, at Tesla opbevarer alt fra, hvordan du drejer rattet til, hvordan du trykker på speederen. Og selvfølgelig også, hvor du kører hen.
En anden betegnede sig selv som algoritme-kriger, og alligevel lå billeder af hans børn frit tilgængelige og søgbare på nettet.
Spørgsmålet er, hvad det gør ved mig, at jeg bliver guidet mod drab og mord, men samtidig også skærer alt det fra, som verden også er. Om jeg ligefrem bliver til en anden, jeg ikke kan genkende?
Det satte forskeren John Cheney-Lippold sig for at undersøge i sin bog fra 2018 med titlen ’We are data’.

I sin forskning viser han, hvordan data om os – vores klik, likes og søgehistorik – bruges til at placere os i algoritmiske profiler, der former, hvad vi ser online. Disse profiler – en samling af forskellige datapunkter om dig – påvirker ikke kun vores oplevelse af verden, men også vores valg og handlinger.
Når vi gentagne gange præsenteres for bestemte typer indhold, bliver vi skubbet i retning af bestemte holdninger, præferencer og forbrugsmønstre – ofte uden at lægge mærke til, at vores adfærd ændres.
Jeg havde i den periode svært ved at vurdere, om jeg missede nyheder, jeg ikke ville misse.
Manden i parken
På en løbetur en sensommeraften i Roskilde Bypark, passerede jeg en mand, der kom gående i modsat retning. Jeg trak vejret lidt hurtigere end normalt. En skygge af frygt gled gennem kroppen – ikke fordi han gjorde noget, men fordi noget i mig allerede havde forestillet sig det værste.
Som om jeg havde læst nyheden om ham, før han overhovedet var blevet til én. Det var automatisk, refleksagtigt. En algoritmisk efterklang i min krop.
Men i det øjeblik skete der også noget andet. Jeg opdagede, at jeg kunne se det for, hvad det var: en fantomfrygt, formet af gentagelserne i mit feed. Et spejl, men et ufuldkomment spejl. Og erkendelsen – at det blot var et spejl, og et ufuldstændigt ét – havde gjort noget ved mig.
Jeg følte ikke længere den samme skam. Ikke over min opmærksomhed, ikke over mine klik, ikke over at være blevet en brik i de matematiske beregninger og forudsigelser i udviklernes hemmelige kodesprog.
Jeg følte mig lettet over, at den kommende domsafsigelse mod gerningsmanden fra Hjallerup ville fylde i mit feed, for den nyhed ville også give mig en tro på retfærdighed og retssystemet.
Fra min forskning i maskinrummets forunderligheder har jeg erfaret, at nyhedsmedierne bruger enorme ressourcer på at designe algoritmer, så vi brugere ikke misser de vigtigste nyheder.
En udvikling som foregår i intens konkurrence med de store tech-platforme, som har haft årevis til at øve sig på personalisering af alt fra musik til shopping og socialt medieindhold.
Men i modsætning til tech-platformene bruger nyhedsmedierne ressourcer på, at de matematiske modeller tager højde for mediernes demokratiske rolle i vores samfund. Og at nyhedsmedierne fortsat holder fast i manuel styring af den øverste del af forsiden, så jeg ikke er efterladt helt alene med mit eget verdensbillede.
Det gælder selvfølgelig kun på nyhedssiderne, mens jeg på sociale medier er 100 procent overladt til algoritmernes styring.
Efter løbeturen i parken, følte jeg også en lettelse over, at jeg selv aktivt kan tilvælge de nyheder, som algoritmen ikke opdager, at jeg gerne vil læse. Jeg skal bare lede lidt mere. Være lidt mindre doven. Nu kunne jeg vælge anderledes. Ikke altid, ikke perfekt – men med vilje. Og acceptere, at jeg nok også misser noget, og at det er okay.
Jeg satte farten op, som om hvert skridt blev en lille beslutning: at opsøge det langsomme, det skjulte, det vigtige og det vedholdende, som algoritmen ikke ville give mig. At genopbygge mit blik på verden, én nyhed ad gangen.
Denne artikel er en redigeret udgave af originalen, som kan findes hos vores samarbejdspartner Videnskab.dk. Du finder en liste over vores samarbejdspartnere her.
POV Overblik
Støt POV’s arbejde som uafhængigt medie og modtag POV Overblik samt dagens udvalgte tophistorier alle hverdage, direkte i din postkasse.
- Et kritisk nyhedsoverblik fra ind- og udland
- Indsigt baseret på selvstændig research
- Dagens tophistorier fra POV International
- I din indbakke alle hverdage kl. 12.00
- Betal med MobilePay
For kun 25 kr. om måneden giver du POV International mulighed for at bringe uafhængig kvalitetsjournalistik.
![]()







og