Under presidentvalgkampen i USA i 2016 var det falske nyheter som dominerte på sosiale medier og nettsteder. Ett år før det neste presidentvalget er amerikanske teknologiselskaper under press om å identifisere og blokkere manipulerte videoer på egne plattformer.

Facebook, Microsoft og Amazon har etablert Deepfake Detection Challenge for å samarbeide og utvikle teknologier som automatisk kan identifisere falske videoer – såkalte «deepfakes». De vil la utviklere konkurrere om den beste løsningen, mot belønning.

– Urovekkende erkjennelse

For få måneder siden tok det flere dager å manipulere videoer for å gi dem et autentisk preg. Nå skjer det nesten automatisk. Mer avanserte videoer ferdigstilles på timer.

– I januar var deepfakes fulle av feil og flimrende. Nå, ni måneder senere har jeg aldri sett en så rivende utvikling, sier professor Hany Farid ved University of California til Financial Times.

I januar sa militæret i Gabon at en video av president Ali Bongo viste han var i så dårlig form at de følte seg tvunget til å gjennomføre et militærkupp. Videoen viste seg å være falsk og kvaliteten var elendig.

En malaysisk statsråd etterforskes for å ha hatt sex med en rådgiver, noe som er ulovlig i det muslimske landet. «Beviset» var en video, som statsministeren har sagt er falsk. Eksperter er ikke sikker.

– Deepfakes kan brukes som en unnskyldning, sier analytiker Henry Ajder hos Deeptrace Labs til Wired.

«Fremveksten av syntetiske medier og deepfakes tvinger alle til en viktig og urovekkende erkjennelse: den historiske troen om at video og lyd er pålitelige opptak fra virkeligheten er ikke lenger holdbar», skriver Deeptrace Labs’ grunnlegger Giorgio Patrini i et blogginnlegg.

– Demokratiseres raskt

Videoer blir sett på som mer overbevisende enn bilder og tekst. Det er kun fem år siden teknologien som benyttes til falske videoer ble utviklet. Generative Adversarial Networks bruker avanserte algoritmer og maskinlæring for å manipulere bevegelige bilder og lyd.

Utviklere deler gjennombrudd og forbedringer av teknologien kontinuerlig. Den Microsoft-eide tjenesten Github er som et åpent bibliotek hvor programmerere kan delta i utviklingen av prosjekter, blant annet manipulasjon av videoer.

Hvem som helst kan laste ned programvaren og installere på standard datamaskiner. For å få best mulig resultat kreves det mer datakraft og kraftige grafikkort. Nettskytjenester fra selskaper som Microsoft, Google og Amazon kan løse disse problemene – med et kredittkort.

– Disse tingene demokratiseres og det skjer veldig raskt, sier professor Farid, som i mange år har forsket på digital manipulasjon av blant annet bilder til Financial Times.

Tidligere var det nødvendig med store investeringer i avansert datakraft for å manipulere videoer. Kina har kommet lengst med bruk av kunstig intelligens og maskinlæring. Med appen Zao kan brukere laste opp et bilde som legges inn i korte filmklipp.

– Det er blitt mulig å lage en brukbar deepfake med begrenset underlagsmateriale. Algoritmene trenger mindre og mindre mengder video og bilder for å lære, sier analytiker Katja Bego hos Nesta til BBC.

– Falske pornovideoer

Siden desember har antall deepfake-videoer blitt mer enn fordoblet til over 14.000, ifølge Deeptrace Labs. 96 prosent av disse er pornografiske videoer hvor ansiktet til kvinner blir erstattet. 850 mennesker er blitt misbrukt i deepfake-videoer i 2019.

– Debatten har dreid seg om politikk, svindel og trusler. Mange glemmer at falske pornografiske videoer er et alvorlig fenomen som skader mange kvinner, sier analysesjef Henry Ajder til BBC.

Det japanske selskapet deepfakesweb.com lar brukere lage falske videoer automatisk. For under 100 kroner blir et ansikt erstattet på en original videosnutt. Kvaliteten er varierende, men forbedres kontinuerlig.

Ifølge Bego forbedres teknologien så raskt at det er viktig med respons fra politikere – og en økt forståelse av konsekvensene.

– Det betyr å se på og utvikle teknologier og løsninger som kan identifisere denne typen videoer og øke bevisstheten. Den underliggende sosiale og politiske dynamikken som gjør deepfakes så farlig må forstås, sier Bego hos Nesta.(Vilkår)Copyright Dagens Næringsliv AS og/eller våre leverandører. Vi vil gjerne at du deler våre saker ved bruk av lenke, som leder direkte til våre sider. Kopiering eller annen form for bruk av hele eller deler av innholdet, kan kun skje etter skriftlig tillatelse eller som tillatt ved lov. For ytterligere vilkår se her.