Deepfakes en de risico's van toenemende video-fraude

Foto gemaakt met Canva.

Zo'n zes jaar geleden schreef ik over een nieuw “virus” in de journalistiek. We zijn inmiddels een paar jaar verder, maar is er nog steeds geen “antivirus” tegen deepfakes, terwijl het maken ervan geavanceerd en geperfectioneerd is, en de laatste stap het vereenvoudigen van het productieproces is van deze hoax-video's. Tot nu toe waren er nog bepaalde vaardigheden nodig bij het gebruik van specifieke programma's om deepfakes te produceren. Maar de ontwikkeling van nieuwe toepassingen op basis van kunstmatige intelligentie, en het gemakkelijker gebruik ervan, leidt tot de massaproductie van deepfakes. Bij de laatste presidentsverkiezingen in de Verenigde Staten van Amerika waren er meer “cheapfakes” dan “deepfakes” – de belangrijkste reden was dat cheapfakes gemakkelijk te produceren waren en dat iedereen het kon. Nu dit mogelijk wordt voor deepfakes, hoeft het niet veel betoog om te zeggen dat deepfakes in belangrijke sociale processen, zoals verkiezingen, het grootste risico zullen vormen. In de wereld van informatie wordt  manipulatie in technologische zin steeds makkelijker

Deepfakes bevatten vervalste visuele inhoud op basis van kunstmatige intelligentie, waarin een echte persoon wordt voorgesteld die iets zegt of doet wat hij nooit heeft gedaan. Deepfakes werden bij hun ontstaan ontwikkeld voor entertainment, en andere voor bewustwording, maar soms is  de manipulatie van de samenleving door middel van deepfakes ingegeven door politieke of economische motieven

Omdat de productie van deepfakes steeds gemakkelijker wordt, is het vergroten van het bewustzijn erover in de samenleving urgent. Een recent voorbeeld in de Balkan is de erotische video waarin de bekende Albanese tv-presentatrice Luana Vjollca wordt nagebootst en haar gezicht met behulp van kunstmatige intelligentie op een ander lichaam wordt geplaatst. De Albanese journalist Blendi Fevziu publiceerde een deepfake-video van zichzelf voor bewustmakingsdoeleinden, waarin hij Chinees, Arabisch, Russisch en Portugees lijkt te spreken. We publiceerden in 2022 andere regionale deepfake-video's, zoals die waarin Elon Musk Albanees of Servisch spreekt.

Dit zijn voorbeelden die aantonen dat het produceren van een deepfake nu veel gemakkelijker is dan een paar jaar geleden. Als je verder weg gaat kijken, dan was er de virale deepfake van het beroemde Amerikaanse model Bella Hadid, waarin ze de acties van Israël in de oorlog tegen Hamas leek te steunen, waarbij ze helemaal niet had gezegd dat ze dat deed. Hadid's deepfake werd meer dan 28 miljoen keer bekeken op X (voorheen Twitter). De ontwikkeling van technologie en gebruiksvriendelijke programma's op basis van kunstmatige intelligentie betekent een nieuwe bedreiging voor de waarheid

De waarheid staat als het ware “op de rand van dood”, want met de toename van deepfakes in omloop zal het steeds moeilijker worden om te weten wat de waarheid is. Gezien de crisis van de geloofwaardigheid van de media, zal de journalistiek in de nabije toekomst nog meer op de proef worden gesteld. Het enige wapen hiertegen is professionele journalistiek, journalistiek die zich houdt aan professionele normen en het algemeen belang voorop stelt. Anders zal sensatiebeluste en clickbaiting-journalistiek alleen maar meer wantrouwen jegens de media aanwakkeren. Dit leidt ertoe dat burgers zich onzeker voelen over de informatie die ze ontvangen, waardoor er ruimte ontstaat voor andere actoren in de informatieomgeving. Zo profiteren altijd degenen die, met een machiavellistische mentaliteit, graag in de nevel opereren zonder na te denken over de schade die aan de samenleving wordt toegebracht

De popularisering van deepfakes als gevolg van programmering op basis van kunstmatige intelligentie, opent een nieuw hoofdstuk in de informatie- en communicatiecirculatie, zowel voor de zender als voor de ontvanger van de informatie. De snelle en zeer belangrijke ontwikkeling vergt inspanningen om de verificatiemethodes eenvoudiger en sneller te maken dan nu het geval is.

Er bestaan momenteel enkele programma's die helpen bij het detecteren van fenomenen die ongemerkt een nep-realiteit creëren, zoals FakeCatcher en Sentinel, maar er zijn nog steeds geen open tools die voor iedereen gratis beschikbaar zijn. Ook is het belangrijk dat de detectiemethoden geavanceerd zijn om gelijke tred te houden met de vooruitgang van deepfakes, omdat de technologie die de productie van deepfakes mogelijk maakt, zich in hoog tempo ontwikkelt. Momenteel detecteren deze platforms bijvoorbeeld geen audiomanipulaties, een belangrijk element bij audiovisuele manipulaties. Er zijn al enkele  gevallen bekend waarin het beeld echt is, terwijl het geluid wordt gegenereerd door kunstmatige intelligentie

Kennis over deepfakes en bewustzijn van dit fenomeen helpt de samenleving om kritischer te zijn over elke video waaraan ze wordt blootgesteld. Tools voor het opsporen van deepfakes zijn belangrijk, maar het tegengaan van desinformatie vereist ook een grote inzet van individuen en maatschappelijke organisaties om de samenleving bewust te maken van het bestaan en de implicaties van deepfakes in het dagelijks leven

Anderzijds is een nieuw wettelijk kader voor deepfakes niet nodig omdat er al wetten zijn om de inhoud te reguleren die bedoeld is om individuen, bedrijven of de samenleving als geheel te misleiden, te discrediteren of schade toe te brengen. Vanwege de snelheid van hun verspreiding, viralisatie en mogelijke schade, is het echter belangrijk om prioriteit te geven aan deepfakes.

Start een discussie

Auteurs graag inloggen »

Regels

  • Alle reacties worden beoordeeld door een moderator. Verzend je reactie maar één keer, anders kan deze als spam worden gemarkeerd.
  • Wees respectvol tegen elkaar. Reacties met hatelijke opmerkingen, obsceniteiten en persoonlijke aanvallen worden niet goedgekeurd.