Deep fakes: Tro hverken øjne, øren eller instinkt

af i Digitalt/Politik & Samfund

POV BUSINESS // TEKNOLOGI – Der er et kapløb i gang om at lave den mest spektakulære forvrængning af virkeligheden, der afspejles digitalt, og det er farligt, hvad enten snyderiet styres af den politiske magt, Big Business eller en syg sjæl, der vil skabe kaos. Nu spredes såkaldte deep fakes, hvor kunstig intelligens forfalsker bedre end noget menneske kunne tidligere, skriver journalist Dorte Toft. Hun mener, at ny software til at afsløre det falske vil have begrænset succes, ligeså en satsning på etiske krav som en bremse for galskaben.

Fra Romerriget, til Hitlers regime til folketingsvalget 5. juni! Falske nyheder og vildledende manipulation af fakta har altid været brugt til at undergrave tillid, vinde valg, latterliggøre, stigmatisere og fostre konspirationstænkning. Falske nyheder bruges tilmed af visse medier til at øge ”oplag”. Det nye er, at spredningen aldrig har været så effektiv som i dag, takket være teknologiudviklingen. Det nye er også, at måden, vi snydes på, er mere avanceret end nogensinde. Igen takket været teknologiudviklingen.

Løgnen har altid rejst hurtigere og fristet flere, end sandheden, der følger efter. Nu er det ”bare” blevet værre, takket være den kunstige intelligens, der snyder den ægte. Der spredes videoer og lydoptagelser, som virker helt ægte, men hvis indhold enten er forvrænget eller 100 procent falsk.

Deep fakes er en slags topavanceret dukkefører- og bugtalerteknologi, men “dukken”, der udnyttes, vil typisk være en fra magtens kredse

Det er ikke længere bare de gammelkendte klip-redigeringer, hvor der for eksempel byttes om på svar, så personen fremstår som verdens dummeste eller ondeste. Nu er det magtens levende koryfæer og andre, der lægges ord i munden, de aldrig har sagt. Betegnelsen er deep fakes, og de er skabt ved hjælp af kunstig intelligens trænet på enorme mængder video- og lyddata med en metode, der kaldes deep learning.

Fra universiteter til efterretningstjenester

Deep fakes er en slags topavanceret dukkefører- og bugtalerteknologi, men “dukken”, der udnyttes, vil typisk være en fra magtens kredse. Statsledere, politiske modstandere og andre, og uden de aner noget, før det er for sent. Foreligger der nok videooptagelser og lyd på dem, er løbet kørt.

I det offentlige rum har vi dog foreløbig kun set universitetsforskeres demonstrationer af, hvor slemt det kan blive, når magten kendisser føres som dukker, men deep fake-teknologien foreligger garanteret også såre veludviklet hos militæret i flere lande og hos efterretningstjenester.

Løgnen sætter sig dybere end sandheden, og ikke mindst når jorden i forvejen er gødet med modvilje, om grundet køn, politisk holdning, religion eller andet

Men mindre kan også stadig gøre det, hvilket blev illustreret for nylig, hvor der cirkulerede en video med Nancy Pelosi, USA’s Demokraternes talskvinde. Hun snøvlede og stammede, som var hun fuld eller svært alderssvækket. Ifølge medier var der skruet lidt ned for farten på videoen og ekstra op for lave lydfrekvenser. Ordene var dog ikke ændret, og det rent visuelle ej heller i en grad, der ville udløse mistanke.

Den video blev delt millioner af gange via sociale medier, inden det første seriøse medie fik belyst, at det var manipuleret, men skaden var sket. Løgnen sætter sig dybere end sandheden, og ikke mindst når jorden i forvejen er gødet med modvilje, om grundet køn, politisk holdning, religion eller andet. I Pelosi-tilfældet var jorden tilmed dobbeltgødet for millioner af mennesker, der hverken klarer Demokraterne eller kvinder i magtpositioner.

Pelosi-løgnen fik da ekstra vinger af, at præsident Donald Trumps personlige advokat, Rudy Guiliani, spredte den forfalskede video. Trump selv spredte et andet manipuleret videosammenklip af Pelosi ledsaget af en tekst om, at Pelosi stammer sig gennem en pressekonference.

Men i Pelosi-sagerne forelå originalvideoer, så manipulationen blev efterfølgende dokumenteret. Det samme var tilfældet, da Det Hvide Hus udsendte et videoklip, der forsøgte at give indtryk af at CNN’s korrespondent Jim Acosta slog løs på en praktikant, som havde forsøgt at tage mikrofonen ud af hans hånd under en pressemøde.

Bebudede han atombomber mod Nordkorea?

I den anden ende af spektret, den dødsensfarlige, vil vi se deep fakes med udtalelser skabt direkte til at udløse kaos og krig, lagt perfekt synkroniseret i munden på en kendt person. Forestil dig for eksempel, at ”Donald Trump” på video bebuder, at en atomangreb mod Nordkorea netop er indledt grundet optrappede trusler fra den svigagtige Kim Jong-un mod USA’s sikkerhed.

Hvad siger dit instinkt? Hvordan er din jord gødet?

Videoen vil under alle omstændigheder blive spredt som lynild via nettet også takket være såkaldte troll farme (systematiseret formidling af løgne og vildledninger), samt af tv- og radiostationer, der bare ikke kan lade være med at ville være først, uanset hvad.

Allerede i sommeren 2017 demonstrerede forskere ved University of Washington, hvorledes de kunne forvanske en video af den tidligere præsident, Barack Obama, så han sagde noget helt andet på deres video end på originalvideoen.

Forskerne havde jo ingen mangel på video- og lydoptagelser af Obama, som den kunstige intelligens kunne trænes på. Resultatet var præcise algoritmer – matematiske modeller – der styrede Obamas ansigt, mund og stemme, så alt passede til den falske tekst, der var lagt ham i munden.

Forfalskning her og nu

Der er fra andre universiteter set real time deep fakes som klar dukkefører- og bugtalerteknologi, hvor der oveni tages hånd om, hvad der ses i baggrunden, så det ikke vidner om, at der er sket manipulation med personen i forgrunden.

Forskerne præsenterede både den russiske præsident, Vladimir Putin, set, Theresa May og Barack Obama i deres redegørelse for, hvorledes teknologien fungerer. Der er en person i et studie, hvis bevægelser af ansigt og overkrop synkroniseres direkte over på kendissen, hvilket åbner for deep fake i real time, som for eksempel i hvad der udgives for at være et pressemøde via videokonference. Mediet Gizmodo har en god illustration af, hvad der sker.

Intet under, at det amerikanske forsvars forskningsorganisation Darpa for længst har bevilget store millionbeløb til afsløring af deep fakes

Men det er ikke kun manipulation af personer, der bliver farlig. For eksempel kan deep fakes af naturfænomener og videoer fra satellitter udgøre en kæmpe risiko. Har en nation vitterligt afsendt et missilangreb mod et andet land? Eller er det en fake, der skal få det andet land til at reagere, så man kan påråbe sig selvforsvar, når man selv fyrer af? Eller stammer det falske signal fra et tredje land, som spiller to andre ud mod hinanden?

Intet under, at det amerikanske forsvars forskningsorganisation Darpa for længst har bevilget store millionbeløb til afsløring af deep fakes, men svært bliver det. Når én type kan afsløres, vil der for længst foreligge nye typer.

Pornoen først

I øvrigt var det pornoverdenen, der som den første tog fake-teknologien til sig, og det bør ikke undre nogen, da den verden altid har reageret lynhurtigt på den teknologiske udvikling.

Ansigter i pornofilm blev udskiftet, så den pornohungrende i stedet for at se det sande ansigt på den kvindelige pornoaktør, kunne se en berømt kvinde gispe og stønne – lige fra Scarlet Johansson til Ariana Grande.

Udviklingen gik videre til udskiftning også af herreaktørens ansigt, og inden længe kunne hr. menigmand, såsom Allan Johnson på Willow Road 14, se sig selv kneppe naboens teenagedatter, blot han havde sikret sig nok videooptagelser af hendes ansigt.

Nøjagtig som med hackerangreb ender det nemlig med, at der udvikles standardværktøjer, der kan bruges af menigmand. Det starter med de tech-kyndige, der evner at manipulere på egen hånd, og det ender med tech-kyndige, der finder det økonomisk givtigt, effektivt undergravende eller bare sjovt at udvikle et standardværktøj, som menigmand kan bruge.

Værktøjsmagasinet på nettet

Og de bruges, sådanne værktøjer, der ligger til salg på nettet. Også til at få hævn over ekskæresten – til hævnporno. Men fake-teknologien ses selvfølgelig også i underholdningsbranchen.

Kataloget af manipulative tech-værktøjer, der kan bruges af menigmand vokser konstant. Derfor blev jeg heller ikke overrasket, da jeg til en 60 års fødselsdag så en morsom video, skabt til formålet, indtalt af ”David Attenborough”.

Kendis-stemmer foreligger jo også på nettet, så bare levér en skreven tekst og ud kommer berømthedens velmodulerede stemme. Senest er it-milliardæren Bill Gates’s ganske særlige stemme skabt. Der skal heller ikke megen tale til, før selv din stemme kan transformeres til standard. Den manipulation kan så blive forsøgt brugt mod dig i en retssal som bevis for eksempel en telefonsamtale.

For en universitetsforsker kan et gennembrud med deep fakes blive berømmelsen, der leder til fastansættelse på et ellers benhårdt marked

Ånden er sluppet ud af flasken, og de deep fakes, der præsenteres offentligt fra forskerside er både så fascinerende og skræmmende, at det altid går viralt – spredes lynhurtigt. Det i sig selv skaber et kapløb om at komme først.

For en universitetsforsker kan et gennembrud blive berømmelsen, der leder til fastansættelse på et ellers benhårdt marked, og måske banker selv det allerfineste universitet på døren. Et gennembrud kan også blive nøglen, der låser op for en flod af de ellers så svært opnåelige bevillinger.

Ædle motiver skubbes foran

Nogle af forskerne, der får deres 15 months of fame takket deep fakes-udvikling, fortæller, at deres mission er den ædleste, nemlig at advare verden om, hvad der vil komme. De har ikke ledsaget det med anvisninger på, hvordan man kan imødegå truslen.

Dog kan de som modgift foreslå, hvad der kaldes reverse engineering af lige netop egen produktion (lidt som at se mønsterteknikken i et strikketøj ved at trevle det op), men hvad med alle de deep fakes lavet af andre? Og alene at overlade det til andre forskere at udvikle, hvad der kan afsløre manipulationen, lugter, også fordi det er noget, som aldrig vil udløse samme berømmelse.

Se evt. denne video fra BBC, der med Obama som model illustrerer, hvad forskerne foreløbig kan, og med en af forskerne, der har selv har bidraget, og som overlader arbejdet med afsløringen til andre:

Kan man stille krav om en slags ”lægeløfte”, til de forskere og forskerstuderende, der nu flokkes om den kunstige intelligens ? Krav om etiske overvejelser om konsekvenser for mennesker og kloden som sådan?

Nej, selvfølgelig ikke. I grundforskningen vil der ske opfindelser, hvis brug – om til det gode eller onde – ikke kan forudses. I den anvendte forskning – det, som i dansk politik blev beskrevet som ”fra forskning til faktura” – vil selv det, der er udviklet med gode intentioner for øje, kunne blive udnyttet til det modsatte.

Den forførende frydefulde opdagelse

Endelig er der den menneskelige natur, forskernes natur. Fryden ved at opdage det banebrydende. Den blev berørt af en af de mest garvede forskere inden for kunstig intelligens, Geoffrey Hinton, under et arrangement skildret af magasinet The New Yorker i 2015.

Snakken gik ikke på deep fakes, men på konsekvens af superintelligens – de computere, der en gang måske vil overgå menneskets egen intelligens, men hvad Hinton fortæller gælder bredt.

En stor del af den kunstige intelligens udvikles jo i det godes tjeneste, for eksempel til at finde nye lægemidler, men det modsatte sker også. Hinton udtrykte, at den kunstige intelligens også ville blive brugt af politiske systemer til at terrorisere folk.

Det affødte et spørgsmål om, hvorfor han alligevel forsker og udvikler kunstig intelligens.

“I could give you the usual arguments,” sagde Hinton. “But the truth is that the prospect of discovery is too sweet.”

Også opfindelsen af atombomben var “sweet” for forskerne.

The New Yorker skriver, at det var som et ekko af den amerikanske fysiker, J. Robert Oppenheimer – manden, der ledte Los Alamos-laboratoriet under udviklingen af atombomben. Han blev berømt for disse ord:

”..it is my judgment in these things that when you see something that is technically sweet, you go ahead and do it and you argue about what to do about it only after you have had your technical success. That is the way it was with the atomic bomb.”

Oppenheimer arbejdede senere for at få oprettet international kontrol af atomkraft for at undgå et ødelæggende atomkapløb


Topillustration: Unsplash. 

Dorte Toft er journalist, forfatter og halvpensionist. Hun kan ikke helt slippe arbejdet, men fik et puf i sommeren 2016, da Berlingske Business som led i sidste sparerunde opsagde det ti år lange samarbejdet om bloggen Bizzen (IT og business).

Berlingske holder dog Bizzen-bloggen søgbar, hvilket ikke kun skyldes dækningen af teknologiudvikling og IT-politik, men også afdækningen af flere erhvervshistorier. Nogle erindrer måske, at bloggen var et væsentligt redskab, da Dorte Toft pustede Stein Bagger i nakken, men han er langt fra alene om den uønskede opmærksomhed.

Dorte Toft begyndte sit arbejdsliv som programmør, men efter godt syv år tog hun journalistuddannelsen i Århus, hvilket hun kun sjældent fortryder. På hendes CV står bl.a. Berlingske, DR, Udenrigsministeriet, KMD, Computerworld og Dagbladet Børsen.

Hun er medforfatter til bøgerne ”Bedrag – IT Factory, grådighed og magtsyge” og ”Lykkelig i Nørdland – Hvem bygger fremtiden?”. Begge udkom på Gyldendal i 2009. En lille bog med titlen "Magtkampens A-Z", skrevet under pseudonym, er det også blevet til.

Del gerne, hvis du finder det interessant nok. Og bidrag gerne via MobilePay på +45 31 21 07 30, hvis du finder det væsentligt nok.

Seneste artikler om Digitalt