Gebruik deze knop om te wisselen tussen donkere en lichte modus.

De opkomst van Deepfake

Je hebt vast al kennis gemaakt met een nieuwe technologie die de mogelijkheid heeft om de waarheid te verhullen: Deepfake video's. Met behulp van geavanceerde, en vaak verrassend makkelijke, computersoftware, kunnen zeer realistische audio of visuele uitingen gemaakt worden waarin mensen dingen doen of zeggen die door de maker van de video zijn bedacht. In 2021 raakten zelfs Tweede Kamer leden misleid door een deepfake.

De technologie waarmee deze soms misleidende video’s gemaakt worden is steeds eenvoudiger te verkrijgen, zoals apps die iedereen kan installeren en gebruiken. Wat zijn hiervan de gevolgen? Kan straks iedereen van alles verspreiden online en hoe weten we nog wat echt is en wat niet?

De toepassingen van Deepfake

Deepfake is een techniek die ontwikkeld is door en voor de filmindustrie. De aanleiding was destijds het overlijden van een acteur terwijl de film waarin hij speelde nog niet af was. Inmiddels is de techniek wijdverspreid en wordt deze door diverse gebruikers ingezet voor verschillende doelen, van grappig tot manipulerend.

Een voorbeeld dat veel in het nieuws is geweest is een video waarin in intro van de jaren ’90 komedie Full House alle gezichten van de cast vervangen zijn door het gezicht van de komiek Nick Offerman. Hijzelf was niet betrokken bij het maken van de video maar op de een of ander manier passen zijn gezicht en bewegingen toch perfect bij alle personages en is het griezelig echt.  


Meer alarmerende voorbeelden zijn de uitspraken van wereldleiders zoals Volodymyr Zelensky, die nooit echt hebben plaatsgevonden maar die wel erg realistisch en geloofwaardig over kwamen.

Verdediging tegen Deepfake

Met de Deepfake technologie is elke persoon en organisatie mogelijk dicht bij een potentiële ramp. Want hoe kun je een vertrouwensband opbouwen wanneer dit soort video’s de lijn tussen de feiten en fictie vervagen? Om deze reden zie je momenteel ook de trend dat er wapens worden ontwikkeld tegen Deepfake video’s. Je kunt bijvoorbeeld mensen die voor de camera staan vooraf trainen in het gebruik van bewegingen die het heel moeilijk maken voor softwareprogramma’s om deze te kopiëren en te gebruiken voor een Deepfake uiting. Bijvoorbeeld het knipperen met ogen is een uitdaging voor Deepfake software. In echte video’s knipperen mensen vaak en snel, in Deepfake video’s is dit vaak trager en minder frequent.

Maar dit is niet voldoende, nieuwsorganisaties moeten ook gaan nadenken over een verdedigende strategie tegen Deepfakes. Net als pr-professionals die een plan moeten hebben voor als het misgaat en een Deepfake video een bedreiging vormt voor hun merk of product.

En zolang volledig voorkomen nog geen optie is, is het het beste goed te blijven monitoren wat er over jouw organisatie wordt gezegd in de media. Nexis NewsdeskTm is daar de ideale oplossing voor. Alleen door te monitoren kun je er op tijd bij zijn om een crisis te voorkomen.

Deepfake, fact checking, social listening. Hoe goed ben jij al op de hoogte van alle termen die er tot doen? Bekijk onze begrippenlijst!

Neem contact met ons op

E-mail: support@lexisnexis.eu
Telefoonnummer: +31 (0) 20 485 3456