Het opsporen en bestrijden van deepfakes is een enorme uitdaging die vraagt om een goede samenwerking tussen techbedrijven, sociale platformen, mediabedrijven (journalisten) en overheden. Ook consumenten en burgers zouden hierbij hun verantwoordelijkheid moeten nemen, door ‘feedback’ te geven en bewuster om te gaan met het verspreiden of promoten van berichten.
Recent sloot Amazon zich aan bij een initiatief om deepfakes aan te pakken, van onder meer Facebook, Microsoft, New York Times en onderzoeksinstituut MIT. Steeds meer organisaties realiseren zich dat ze nepnieuws niet in hun eentje kunnen bestrijden, zeker niet nu daar een nieuwe variant bijgekomen is: deepfakes. Deepfakes zijn beelden of geluiden die op een diepliggend technisch niveau gemanipuleerd zijn (dankzij Artificial Intelligence die bijvoorbeeld gezichtsuitdrukkingen en menselijke taal begrijpt), zoals het verwisselen van gezichten en iemand iets laten zeggen dat hij zelf nooit gezegd heeft.“Deepfakes zijn de lastigste vorm van nepnieuws”Deepfakes zijn een groeiend probleem nu AI voor een steeds groter publiek toegankelijk wordt en de technologie zelf steeds krachtiger wordt: er is steeds minder informatie nodig om een deepfake te creëren (onderzoekers van Samsung maakten dit jaar een deepfake-video op basis van slechts één foto). De nieuwste deepfakes zijn dan ook vrijwel niet meer te onderscheiden van originele beelden. Met eenvoudige apps zijn al indrukwekkende resultaten te behalen. We zullen er dus rekening mee moeten houden dat we overspoeld gaan worden door deepfakes. Hoe kunnen we dan nog weten wat echt en nep is?
Technologische wedloop
Voor een groot deel is het opsporen van deepfakes op dit moment een technologische wedloop. Deepfakes kunnen nu vaak worden ontmaskerd met AI die geavanceerder is dan de AI waarmee de deepfakes zijn gemaakt. Ze vallen dan door de mand door kleine foutjes of door onechte details. Hoe langer een filmpje duurt of hoe hoger de kwaliteit van beeld en geluid, hoe meer er geanalyseerd kan worden op mogelijke manipulatie. Klassiek zijn de scheve monden en de verschillen in lichtinval bij compilatiefoto’s. Maar de imperfecties worden steeds kleiner steeds en lastiger om op te sporen. Het verschil tussen ‘goedkope’ en dure AI wordt ook kleiner. Sommige AI-ontwikkelaars maken zich al zorgen of ze voorop kunnen blijven lopen. Door hun technologie open source beschikbaar te stellen proberen ze de kans daarop te vergroten. En hoewel tech- en mediabedrijven nu gaan samenwerken, zijn ze deels ook concurrenten en hebben ze ook nog een ander belang: zelf betere AI ontwikkelen en de eerste zijn die nepnieuws ontdekt, om zo een unieke ‘scoop’ te hebben.Blockchain als controle
Een andere strategie waarmee geprobeerd wordt om deepfakes te bestrijden, is om beelden en geluiden bij de bron – dus in het apparaat waarmee een opname wordt gemaakt – van een digitaal watermerk te voorzien. Dit watermerk verandert of wordt verminkt zodra de originele content wordt bewerkt. Er is inmiddels AI die met behulp van het watermerk kan herkennen wat voor soort manipulatie is toegepast. Dit betekent wel dat alle opnameapparatuur voorzien moet worden van de technologie om deze watermerken aan te brengen. Zo trekt Adobe een initiatief voor digitaal watermerken met een chip in opnameapparatuur, in eerste instantie ontwikkeld met als doel om content te beschermen tegen kopiëren en ongewenste verspreiding. Google gebruikt digitale watermerken om vast te kunnen stellen of content die bij YouTube wordt geüpload auteursrechtelijk beschermd is.“Hoe ver mag je gaan en in hoeverre kan privacy worden gewaarborgd?”Om deepfakes op te sporen, zouden alle originelen (met de watermerken) moeten worden opgeslagen in een register waarmee later de echtheid gecontroleerd kan worden. Hier kan blockchain-technologie een nuttige rol spelen. De grootste fabrikant van bodycams voor politieagenten in Amerika, Axon Enterprises, ontwikkelt momenteel een beveiligde blockchain voor opnames die met de bodycams worden gemaakt. Om deepfakes grootschalig aan te kunnen pakken, is eigenlijk blockchain nodig die voor iedereen openbaar toegankelijk is, zodat elk bedrijf, elk persoon en elke app hiermee content kan controleren.
Sociaal fenomeen
De manier waarop content wordt verspreid, kan eveneens iets zeggen over de echtheid van de content. Wordt een video bijvoorbeeld vanuit één account verspreid en daarna via steeds terugkerende patronen (lees: bestaande/bekende sociale relatienetwerken van consumenten) en netwerken, of verloopt de verspreiding atypisch en via een gesloten ‘leger van bots en twijfelachtige accounts’? Sociale platformen als Facebook, Google en Twitter doen veel onderzoek naar de patronen van verspreiding, om nepnieuws op te sporen, maar vooral ook omdat ze waardevol zijn voor het voeren van marketingcampagnes. Naarmate bedrijven en overheden steeds meer inzicht krijgen in de structuur van de sociale netwerken in onze samenleving, groeit ook de behoefte aan democratische controle. Hoe ver mag je gaan (de verspreiding van een ideologie, die sommige regimes niet aanstaat, kan via dezelfde netwerken verlopen als een marketingcampagne of de verspreiding van nepnieuws) en in hoeverre kan privacy worden gewaarborgd?Waarheidsmachine
Bij elkaar opgeteld: het bestrijden van nepnieuws en deepfakes komt neer op het bouwen van een ‘waarheidsmachine’, een ‘rechtssprekende computer’ die een inschatting maakt hoe waarschijnlijk het is dat de content echt en ‘waar’ is, en dit doet op basis van feitelijke informatie, patroonherkenning en analyses van de content zelf en de verspreiding ervan. Ook feedback van gebruikers is hierin belangrijk.“Hoe meer informatie beschikbaar is, hoe beter computers kunnen inschatten of iets deepfake is”Elke waarneming of punt van feedback, zoals waarnemingen van gebruikers (‘ooggetuigen’), reacties over de aannemelijkheid dat iets waar is of informatie over de betrouwbaarheid van bronnen, levert extra informatie op die het ‘ontmaskeren’ van een deepfake dichterbij kan brengen. Hoe meer informatie er beschikbaar is, hoe klein soms ook, hoe beter de computer een oordeel kan vellen en kan inschatten of iets een deepfake is. Daarom is de samenwerking en het uitwisselen van informatie tussen techbedrijven, mediabedrijven en overheden zo belangrijk. Behalve feedback geven zouden burgers voorzichtiger kunnen zijn met het verspreiden van berichten waarvan ze niet zeker weten of ze echt zijn en bewuster om kunnen gaan met welke content ze liken of promoten.
Iedereen kan bijdragen, de wisdom of crowds
De verantwoordelijkheid voor het bestrijden van deepfakes (en de schuld ervan) wordt nu vaak ten onrechte volledig bij de techbedrijven gelegd, deels uit gemakzucht of uit antipathie vanwege de macht en invloed van deze bedrijven. Het bestrijden van deepfakes vraagt meer nog dan nepnieuws om vereende krachten en gedeelde verantwoordelijkheid.
Niemand zal zich een illusie maken dat deepfakes daarmee voorgoed uit de wereld zijn. Sterker nog, consumenten spelen graag met de werkelijkheid, al is het maar om onszelf mooier of anders te maken. Kijk naar de absurdistische talkshow ‘Avondlicht’ van Sander van de Pavert, die door montages speelt met de werkelijkheid.
“Bestrijding van deepfakes vraagt meer nog dan nepnieuws om vereende krachten en verantwoordelijkheid”Secrets and lies zijn een belangrijk onderdeel van onze samenleving en zijn niet altijd problematisch. Maar in een wereld vol leugens en verraad hebben we ‘wijze’ technologie nodig om ons te helpen recht te spreken en vertrouwen te kunnen houden. Dat vraagt om slimme samenwerking tussen alle betrokkenen. Tegelijkertijd worden er bij het bestrijden van nepnieuws en deepfakes technologieën ontwikkeld die ons menselijke gedrag nog meer blootleggen en onze privacy in het geding kunnen brengen. En zo raakt nepnieuws onze democratie nog meer dan we misschien dachten. Door: Maurits Kreijveld Maurits Kreijveld is futuroloog, spreker en adviseur. Ook schreef hij de boeken De plug&play-organisatie, Samen slimmer en De kracht van platformen.