Falske billeder og videoer: Kan vi overhovedet stole på noget mere?

Med ny teknologi er det i dag muligt at skabe billeder, videoer og lydklip med kendte ansigter og stemmer, uden at de pågældende medvirker, og det kan få afgørende betydning for vores tillid til demokrati, institutioner og andre mennesker

Udgivet:13. juni 2022, 14.14

Forleden brugte tv-programmet America’s Got Talent deepfake-teknologi til at kombinere en sanger, der optrådte på scenen, med dommer Simon Cowells ansigt, så det på storskærmen så ud, som om Cowell sang, selvom han sad ved dommerbordet. Ikke alle mulighederne i den nye teknologi er dog lige så uskyldige. Foto: Nipi/Backgrid/Ritzau Scanpix

Af Søren Flott
redaktion@m-jylland.dk

For nylig blev en 16-årig dreng idømt 20 dages betinget fængsel ved Retten i Holbæk dels for at have delt nøgenbilleder af nogle veninder, dels for at være i besiddelse af børneporno.

Det lyder som en historie, vi har hørt før, men det særlige i dette tilfælde er, at de forulempede piger ikke har optrådt nøgne foran et kamera.

Hvordan det hænger sammen, kræver en nærmere forklaring. Under en af nedlukningerne i forbindelse med pandemien mødtes en flok drenge i en lukket gruppe på det sociale medie Discord for at chatte sammen. Det fremgår ikke af retssagen, hvem der fik ideen, men det var den dømte, der udførte den. Han downloadede et billede af en fælles veninde fra hendes profil på Instagram og uploadede det til en tjeneste, der er i stand til at ’afklæde’ mennesker digitalt.

Resultatet blev et realistisk nøgenbillede, som de færreste ville kunne skelne fra virkeligheden, hvis ikke man ved en masse om billedmanipulation. På et andet billede står fire piger uden for en kirke efter deres konfirmation. I dette tilfælde er det dog nemt at se, at nogen har fusket med fotografiet.

Ifølge vidner grinede pigen først af ’sit’ nøgenbillede, men hendes veninder var chokerede. Sammen bad de drengene om at slette det, hvilket de gjorde med det samme.

Men da var det for sent – billederne var allerede blevet delt og delt og delt.

Dette er historien om en ny teknologi, der kan få stor betydning for alt fra kræftbehandling over fødevaresikkerhed til overvågning af miljøproblemer. Det er bare samtidig en teknologi, der ikke alene har potentialet til at ødelægge enkeltpersoner og virksomheders omdømme, men også risikerer at destabilisere vores tillid til hinanden, samfundets institutioner og selve demokratiet.

Kan ikke se forskel

Det, som drengen i chatrummet fremstillede den dag, kaldes en deepfake. Det er et udtryk, der består af ordene deep learning, som er selve teknologien, og det engelske ord for ’falsk’ eller ’kunstig’. En deepfake er således information - ofte et billede eller en video - som er fremstillet ved hjælp af deep learning, men viser noget, der ikke har fundet sted i den virkelige verden.

De første eksempler dukkede op i 2017 og minder om historien fra Holbæk. En bruger på internetforummet Reddit delte en række pornofilm, hvor de medvirkendes ansigter var skiftet ud med eksempelvis sangeren Taylor Swifts og skuespilleren Scarlett Johanssons.

- Det er gået som med så megen anden teknologi: Når først nødden er knækket, raffineres teknologien hurtigt, og når det gælder de bedste deepfakes i dag, kan jeg ikke se forskel, forklarer

Deepfake: Fjollede Tom Cruise

Anders Kofod-Petersen, der er professor i kunstig intelligens ved Norges Teknisk-Naturvidenskabelige Universitet.

William Atak er enig. Han er stifter af og chef for virksomheden ATAK, der blandt andet hjælper privatpersoner og virksomheder med krisekommunikation og håndtering af skadelig information på nettet. Han peger også på, at teknologien i dag er så udbredt, at alle med en smartphone eller en computer kan fremstille deepfakes ved hjælp af nogle få klik.

- Med kunstig intelligens er det i dag muligt at skabe realistiske videoer af begivenheder, der aldrig har fundet sted, eller lydklip med personer, som aldrig har sagt det, der bliver sagt, siger han.

Det kan lyde som science fiction, men mange af os har faktisk prøvet det selv, som når vi ved hjælp af en app bytter ansigt med barnebarnet eller ser, hvordan vi vil se ud, når vi fylder 100 år. For os er det bare for sjov, men for filmindustrien handler det om milliarder. En række filmselskaber har allerede hyret mange af de dygtigste nørder i cyberspace til at hjælpe med produktionerne, og i 2020 anvendtes teknologien i Star Wars-filmen "Rogue One" til at genoplive den afdøde skuespiller Carrie Fisher, der havde rollen som Princess Leia i serien.

Eksperter vurderer ligefrem, at det om ti år vil være muligt at lave hele film på computeren, uden at publikum i biograferne vil kunne se forskel på dem og nutidens forestillinger.

Læs også
<span>15 år med smartphone:</span> Teenageren i vores lomme <span>15 år med smartphone:</span> Teenageren i vores lomme
Læs også:
15 år med smartphone: Teenageren i vores lomme

Beckham på ni sprog

Når det kan lade sig gøre, skyldes det deep learning, som gør det muligt for computere selv at lære, når de fodres med tilstrækkeligt med oplysninger. Når det gælder det kunstige nøgenbillede i Holbæk, har tjenesten studeret billeder af så mange nøgne mennesker, at den selv er i stand til at give et bud på, hvordan en specifik person vil se ud uden tøj på. Det samme kan lade sig gøre med stemmer og mimik, når det drejer sig om et konkret menneske. Det kan man forvisse sig om, hvis man går på YouTube og søger på Tom Cruise og deepfake. Her kan man se den verdensberømte skuespiller danse, synge og fjolle rundt i små videoer, og vidste man ikke bedre, skulle man tro, det var virkelighed.

Fem deepfakes du kan se online

Det kan være svært at forklare effekten af deepfakes med ord, så her er fem eksempler, du kan se online:

1. Fjollede Tom Cruise

Det kræver hårdt arbejde, men folkene bag deepfake-Tom Cruise viser, hvor langt teknologien er nået. Selv sangeren Justin Bieber blev snydt og troede, der faktisk var tale om Tom Cruise. https://www.youtube.com/watch?v=iyiOVUbsPcM

2. Obama kalder Trump for ’dipshit’

Onlinemediet Buzz-Feed offentliggjorde i 2018 en video med præsident Obama, der ikke lagde fingrene imellem i sin kritik af Trump. Den er også en deepfake. https://www.youtube.com/watch?v=cQ54GDm1eL0

3. Kopi af studievært

Sidste år lavede den sydkoreanske tv-station MBN en deepfake-kopi af den populære studievært Kim Joo-Ha. Seerne blev gjort opmærksomme på det. MBN overvejer at bruge kopien i fremtiden. https://www.youtube.com/watch?v=IZg4YL2yaM0&feature=emb_imp_woyt

4. Trumps tale til belgierne

Det ligner ham, og det lyder som ham. Dog var der noget med mundbevægelserne, da den satiriske video fra et belgisk parti blev lagt online tilbage i 2018. https://www.youtube.com/watch?v=8o0iOm-2sLw

5. Hævn over Facebook

Da Facebook nægtede at fjerne en manipuleret video af Demokraternes ledere i Repræsentanternes Hus, Nancy Pelosi, besluttede kunstneren Bill Posters at tage hævn. Han lavede en deepfake af Facebook-direktøren Mark Zuckerberg, hvor denne praler af, hvordan Facebook ’ejer’ brugerne. https://www.youtube.com/watch?v=cnUd0TpuoXI

Hvor Tom Cruise-klippene først og fremmest er for sjov og viser, hvordan teknologien fungerer, er et klip med fodboldspilleren David Beckham straks mere seriøst. I 2019 deltog han i en kampagne mod malaria, hvor han taler om sygdommen på ni forskellige sprog fra spansk til arabisk. Eller det sørger deepfake for, at han kan, og mundbevægelserne passer faktisk til ordene uanset tungemålet.

De fleste kan nok se pointen, når det handler om at bekæmpe en af verdens mest dødelige sygdomme, men hvad hvis motiverne er mere skumle?

- For sådan en som mig, der til daglig hjælper folk med at fjerne eller begrave uønskede billeder, videoer, artikler eller kommentarer på nettet, er det bekymrende, for hvor det før har drejet sig om ægte materiale, skal vi nu lægge forfalskninger oveni, siger William Atak.

Ingen røg uden brand

Der findes allerede eksempler. I 2021 blev en amerikansk mor således sigtet for at have chikaneret tre teenagepiger ved at true med at offentliggøre videoer af dem, hvor de røg, drak og var nøgne. Formålet? At få dem til at stoppe på det lokale cheerleader-hold, så hendes datter kunne få en bedre plads i truppen. Og selv om moren blev afsløret, er det ingen garanti for, at de forurettede piger får genoprejsning.

- Vi mennesker er bygget på en måde, så vi stoler på det, vi kan se. Det er derfor, billeder og især videoer virker så stærkt. Så selv om der findes teknologi til at afsløre deepfakes, vil vi ofte tænke, at der ikke går røg af en brand, uden der er ild i den, siger Anders Kofod-Petersen.

Deepfake: Trumps tale til belgierne

Problemet forstærkes af, at vi i højere grad deler information, der gør os forargede eller gale i skralden - også når der er tale om misinformation - mens rettelser eller dementier sjældent når lige så langt ud. I 2018 delte et parti i Belgien et klip med daværende præsident Trump. I videoen taler han på sin vante facon og opfordrer belgierne til sammen med USA at forlade Paris-aftalen om bekæmpelse af klimaforandringerne. Først til sidst afsløres det, at klippet er fake, men hvor mange ser videoen til ende, før de i harme har delt den?

- Jeg forudså, at deepfake ville blive brugt af især Trumps følgere i valgkampen i 2016. Det skete heldigvis ikke i større omfang - men det er nok bare et spørgsmål om tid,” siger Anders Kofod-Petersen.

William Atak peger på, at udviklingen vil stille store krav til både vores egen og mediernes kildekritik - ikke mindst i tilspidsede situationer som valgkampe og konflikter rundt om i verden. Tag blot dækningen af krigen i Ukraine, hvor DR i programmet ’Krigens døgn’ i marts viste billede af det, der skulle være nedskydningen af tre russiske kamphelikoptere.

- Billederne viste sig at stamme fra computerspil, men det siger noget om, hvad vi kan have i vente i form af deepfakes, tilføjer han.

Løgnerens dividende

Problemet er endda dobbelt. Ét er falske billeder og videoer, noget andet er den måde, de vil påvirke vores tillid til medier, institutioner og andre mennesker generelt. I en artikel i ’California Law Review’ skrev de to amerikanske jurister Bobby Chesney og Danielle Citron om det paradoks, de kalder for ’løgnerens dividende’:

"Den primære trussel fra deepfakes består i, at folk overbevises om, at noget, der er fuldkommen opdigtet, i virkeligheden har fundet sted. Men deepfakes kan forvrænge sandheden på en anden lumsk måde. I takt med at manipulerede videoer oversvømmer internettet, kan det blive sværere og sværere at skelne fakta fra fiktion. Og hvis enhver video og ethvert lydklip kan fakes, så kan enhver afvise sandheden ved at påstår, der er tale om manipulation.”

For Anders Kofod-Petersen består løsningen ikke i at forbyde teknologien bag deepfakes.

- Det ville være at smide barnet ud med badevandet, siger han.

Deep learning har nemlig stor betydning for menneskeheden. Computeres evne til at genkende mønstre, som det menneskelige øje ikke ser, kan eksempelvis være med til at diagnosticere forskellige kræftformer meget tidligt i forløbet. Teknologien bruges også, når førerløse køretøjer skal lære at identificere fodgængere, cyklister og andre biler. Og når det gælder klimaforandringer og forurening anvendes deep learning blandt andet til at overvåge skovdækket i Amazonas, mængden af CO2, der optages i verdens træer og risikoen for udvikling af skovbrande.

I stedet peger Anders Kofod-Petersen på, at vi som individer og de seriøse medier skal lære at være endnu mere kildekritiske i dag, og så må lovgivningen rettes mod dem, der har lyssky planer med teknologien:

- Teknologien er ikke skummel i sig selv, men dem, der bruger den, kan være det, så man skal straffe den skadelige anvendelse – det er den rette vej at gå.

Deepfake: Hævn over Facebook

Læs også
<span>Ren energi:</span>  I fremtiden kan atomkraftværker køre på smeltet salt <span>Ren energi:</span>  I fremtiden kan atomkraftværker køre på smeltet salt
Læs også:
Ren energi: I fremtiden kan atomkraftværker køre på smeltet salt
Læs også
<span>Småsten, afløbsrens og tyngdekraft:</span> Det er faktisk muligt at gemme grøn energi <span>Småsten, afløbsrens og tyngdekraft:</span> Det er faktisk muligt at gemme grøn energi
Læs også:
Småsten, afløbsrens og tyngdekraft: Det er faktisk muligt at gemme grøn energi
Læs også
<span> Tilbage som Top Gun:</span> Altid under forandring, konstant den samme <span> Tilbage som Top Gun:</span> Altid under forandring, konstant den samme
Læs også:
Tilbage som Top Gun: Altid under forandring, konstant den samme