Verslag netwerksessie ‘Synthetische mediawijsheid: wat leren we jongeren over deepfakes?’

dinsdag 20 april 2021

Wat leren we jongeren over deepfakes? Dat was de hoofdvraag van een nieuwe digitale netwerksessie in het teken van synthetische mediawijsheid, georganiseerd door Netwerk Mediawijsheid. Zo’n negentig deelnemers volgden de gesprekken tussen Freek Zwanenberg (Bureau Jeugd & Media) en filosofe Elize de Mul, UvA-onderzoeker Michael Hameleers en Willem Hendriks, AI-specialist bij IBM. 

Terwijl Reinier Demeijer de geïnteresseerden muzikaal een warm welkom geeft, zet hij meteen al het thema op de kaart. Want verwelkomt hij nu échte deelnemers, of zijn het hun avatars? Dat is dan ook waar deze sessie over gaat: de mogelijkheid om nepbeelden en -video’s te maken die bijna niet van echt te onderscheiden zijn. “Jongeren gaan hier hun hele leven mee te maken krijgen”, begint gespreksleider Freek Zwanenberg. “En de impact van dit soort video’s, waarin je mensen dingen kunt laten zeggen die ze nooit gezegd hebben, gaat groot zijn. Hoe leren we jongeren kritisch gebruik te maken van synthetische media?”

Identiteit in wording

Filosofe Elize de Mul geeft onder meer les op de kunstacademie, waar ze met propedeusestudenten ook kijkt naar de huidige maatschappij waarin sprake is van een beeldcultuur. Als promovenda is Elize verbonden aan de Universiteit Leiden, waar ze onderzoek verricht naar ‘digitale dubbelgangers’ in de hedendaagse beeldcultuur. “Als filosofe en docent ben ik geïnteresseerd in ons ‘online leven’ en hoe on- en offline steeds meer één wordt. Online komen we dubbelgangers van onszelf tegen, in de vorm van selfies of de voetsporen die we via zoekmachines achterlaten. Ik vraag me af wat dat doet met ons zelfbeeld, hoe we ons verhouden tot onze digitale dubbelgangers.”

Om die vraag te beantwoorden, is het goed om eerst het begrip ‘identiteit’ te bespreken. “Vroeger was de theorie dat we worden geboren met een ‘essentie-ik’ en zo de rest van ons leven blijven. Nu is het idee dat onze identiteit niet vastligt, maar voortdurend in wording is in relatie tot de wereld. We leren onszelf steeds opnieuw kennen, door hoe we ons uitdrukken. Dat kan in kledingstijl, maar ook door een selfie te posten. We stellen onszelf steeds in een bepaald daglicht. Niet alleen de ander leert ons dan kennen, maar wij onszelf ook. Als je dat idee als uitgangspunt neemt, betekent het dat met elk nieuw medium dat we introduceren, het onszelf uitdrukken en leren kennen van onszelf verandert. De laatste decennia is het internet een belangrijke plek geworden om onszelf uit te drukken.”

(Afbeelding van) een pijp

“Daarbovenop zijn we visuele wezens, die de wereld al ziende tegemoet treden. Beelden zijn ‘waar’, denk aan een spreekwoord als ‘eerst zien, dan geloven’. In de filosofie is er echter een tweestrijd als het gaat om beelden. Er gebeurt iets geks: we hebben de neiging om onszelf voor de gek te houden door te doen alsof we met het ding zelf te maken hebben. Kunstenaar René Magritte speelt met die verwarring die we hebben met beeld. Je ziet op zijn beroemde schilderij `Ceci n’est pas une pipe’ een pijp, maar de tekst zegt dat het geen pijp is. Dan komt het besef: het is een áfbeelding van een pijp. Voor digitale afbeeldingen geldt dat ze eigenlijk nog huichelachtiger zijn. We zien de complexe werkelijkheid van digitale codes en algoritmes die erachter schuilgaat niet.

Een digitale afbeelding is wezenlijk anders dan een analoge afbeelding, omdat je het kunt verspreiden, downloaden en opslaan. En die kunnen we nog niet zo goed doorgronden, daar zijn we nog niet zo geoefend in. Bovendien is de vraag hoe die afbeeldingen zich verhouden tot het origineel. In onze beeldcultuur worden we overspoeld met beelden, waardoor ze de relatie met een werkelijke betekenis verliezen. Denk aan plastic palmbomen op een terras, ze verwijzen naar een idee van tropisch, naar iets dat het ooit was. Een simulacrum; een kopie zonder origineel noemde filosoof Baudrillard dat al. Bij deepfakevideo’s wordt die vraag nog ingewikkelder: hoe verhoudt dit zich tot het origineel?”

Ze laat een deepfakevideo zien van Diep Nep, waarin Hugo de Jonge fluisterend met een banaan te zien is. “We staan nu nog aan de vooravond van deze technologie. Dit filmpje is gemaakt door een videomaker die hier twee weken mee bezig is. Je ziet nu nog dat er iets niet helemaal klopt, maar alles wijst erop dat de technologie zich snel ontwikkeld. En nu al doet het iets met iemands identiteit.”

Impact op jongeren

Dat beaamt Freek: “Het is moeilijk om de volgende persconferentie met Hugo de Jonge te zien, zonder aan dit filmpje te denken. Welke impact heeft deze technologie op jongeren en op hun idee van waarheid?”

“De impact kan twee kanten op gaan”, denkt Elize. “Ofwel we komen in een tijd terecht waarin een groot deel van de mensen hierin trapt en dit soort video’s niet kritisch bevraagt. Anderzijds kunnen we ook met beeldinflatie te maken krijgen; beelden worden minder waard door alle ruis. Dan wordt beeld vanzelf minder een primaire bron van informatie, omdat we het al niet meer vertrouwen. Er worden al algoritmes ontwikkeld om deepfakevideo’s te detecteren.”

Elize wijst erop dat het merendeel van de video’s nu nog (wraak)porno betreft. Hoewel nog niet overtuigend, heeft het veel impact op het slachtoffer omdat het bewegend beeld betreft. “Het maakt dan gevoelsmatig niet uit of je kunt zien of het echt of nep is. Dit baart mij wel zorgen.”

De waarde van het gesprek

“Door de grote toestroom van beelden is er te weinig ruimte om stil te staan, rustig te kijken en vragen te stellen. Maar die vaardigheid is essentieel. Volwassenen gaan er te makkelijk vanuit dat jongeren als digi-generatie dat wel oppakken. Snappen hoe de wereld in elkaar steekt, is van een andere orde. Ouderen hebben dat begrip min of meer, daarom is het gesprek zo belangrijk.”

“Het is belangrijk dat we met jongeren over beeld praten en met ze filosoferen wat het doet. Wat is echt, wat niet? Goed voorbeeld zijn de foto’s op Instagram bij de Gates of Heaven in Bali. Daarbij lijkt water te zorgen voor een mooie reflectie van dit bouwwerk, maar in werkelijkheid wordt dat effect gecreëerd met een spiegel. Bespreek dat soort dingen met jongeren. Ten tweede: de ethische kant. Laat jongeren nadenken wat ze met de mogelijkheden die technologie bieden willen doen. Wat plaats je wel of niet online, en wat betekent het als je een nepvideo van iemand maakt? Het is belangrijk dat jongeren zich bewust zijn van de risico’s en gelaagdheid van digitaal beeld.”

Elize: “De taak ligt wat mij betreft niet alleen bij het onderwijs. Regulering en ook design zijn belangrijk. Zo is er al een gedragscode voor deepfakevideo’s om ze te labelen met een watermerk. Er zijn op veel vlakken oplossingen te bedenken om het publiek te helpen het onderscheid te maken.”

Impact van desinformatie

Michael Hameleers is assistent professor politieke communicatie en onderzoekt aan de UvA hoe deepfakevideo’s het politieke debat en het nieuws beïnvloeden. “Ik ben dagelijks bezig met de vraag wanneer nieuws nep is en wat de impact daarvan is. Opvallend is de connectie met populisme: een groot percentage van de aanhang van populistische partijen gelooft in desinformatie. Ook deepfakevideo’s zijn een wapen om iemand mee te beschuldigen en om mensen mee te beïnvloeden. Het centrale mechanisme is dat het niet alleen onjuiste informatie is, maar dat dit ook doelbewust wordt verspreid onder dat deel van de samenleving dat er het meest ontvankelijk voor is.”

Waarheidsinflatie

Met filosofe Elize gaat het over beeldinflatie, Michael benoemt in zijn verhaal de waarheidsinflatie. “Mensen zijn steeds minder op pure waarheid gericht, maar juist meer op de bevestiging van hun eigen mening. Online zijn er veel waarheden en vind je de bevestiging van jouw kijk op de wereld. Met desinformatie en deepfakevideo’s kun je daarop inspelen als je mensen wilt verleiden.”

Ook Michael laat de aanwezigen van de sessie een deepfakevideo zien. “Deze over Tom Cruise is onderdeel van een grotere ‘campagne’. Zo is er ook een fake TikTok-account aangemaakt. Het laat zien hoe je de controle over iemands identiteit kunt overnemen. Dat is nu nog heel moeilijk; dit is gemaakt met een goede acteur en het kost nog steeds veel moeite en tijd. Maar er is ook onderzoek gedaan met slechtere deepfakevideo’s dan deze, en wat blijkt? Die worden ook geloofd. Simpelweg omdat mensen niet weten dat het nep is, ondanks de niet optimale kwaliteit.” Ook dat sluit aan op het gesprek met Elize, reageert Freek: “We vertrouwen van oudsher op onze ogen en nemen iets voor waar aan als we het zíen.”

“Klopt”, reageert Michael. “En bovendien: als het aansluit bij onze ideeën en al bestaande mening, wordt dit met een deepfakevideo onderstreept. Overigens is het makkelijker om iemand te beschuldigen van een deepfake, dan om er zelf een te maken. Om iemand van nepnieuws te beschuldigen is niets nodig, maar het is haast net zo effectief.”

Gezond niveau van wantrouwen

Het genoemde onderzoek is gehouden onder volwassenen, zouden jongeren de slechte deepfakevideo’s wel herkennen? Michael: “Ik verwacht dat jongeren zéggen dat ze er beter toe in staat zijn. Het punt is dat mensen die zeggen mediawijs te zijn, juist slechter in staat zijn dit soort dingen te herkennen. Jongeren zien zichzelf als digital native, dat is een gevaar omdat ze denken dat ze er niks meer over hoeven te leren. Om de vraag te beantwoorden wat we jongeren moeten leren; een gezond niveau van wantrouwen. Jongeren moeten weten dat er misleidende informatie wordt ingezet. Zorg dat ze kritisch zijn: klopt de boodschap in de context?”

Een game zoals ‘Slecht nieuws’ van Wij zijn DROG is volgens Michael een goede leerschool om jongeren te leren waarom desinformatie verspreid wordt. “Jongeren moeten leren dat er mensen zijn die hun willen misleiden. Een game kan helpen om de stappen te laten zien die ten grondslag liggen aan het maken van deepfakevideo’s. Als je het zelf maakt, leer je ook nadenken over de gevolgen. Want in verkeerde handen kan de technologie negatief gebruikt worden.”

Nepnieuws en beeldmanipulatie is van alle tijden. Michael: “Maar wat nu anders is, is dat platformen de verspreiding versnellen en we technologie hebben die iets geloofwaardigs creëren. Bovendien spelen algoritmes in op wat je al dacht. Voorheen verdween lichte twijfel weer als het in je omgeving niet bevestigd werd; nu wordt elke mening bevestigd door een online gemeenschap.”

Technologie verdedigen

De sessie gaat door met Willem Hendriks, voor een ánder perspectief. Als AI-specialist bij IBM heeft hij ‘de technologie te verdedigen’. “Ik was die 1% in de eerste poll die aangaf zich geen zorgen te maken over de ontwikkelingen. Dit gesprek is namelijk al heel vaak gevoerd. Toen de stoommachine z’n intrede deed, toen de televisie geïntroduceerd werd. Elke keer als er nieuwe technologie in ons leven komt, vinden we het eng én gaan we het gesprek met elkaar aan. Dat moeten we ook doen: praten en spiegelen. Dan kunnen we de technologie eigen maken en omarmen.”

“Ik ben jaloers op jongeren, omdat ik het spannend vind welke gesprekken we nog meer gaan voeren. Wat staat ons nog te wachten? Er zijn zoveel coole dingen mogelijk met de technologie van nu. En als we over tien jaar terugkijken op deepfakevideo’s, dan blijkt dat het allemaal is meegevallen. Dan is blockchain misschien wel de redding van de krant gebleken. Als we de voor- en nadelen maar met elkaar blijven bespreken, maken we progressie.”

Kunstmatige intelligentie

Als datanerd vindt Willem het leuk om met technologie bezig te zijn. Bij BMI houdt hij zich bezig met neural networks, of deep learning. “We maken netwerken en experimenteren daarmee. Met dezelfde techniek als waarmee deepfakevideo’s gemaakt worden, kunnen we kijken of er bijvoorbeeld in een machinegeluid een tikje zit dat erop duidt dat de machine kapot kan gaan; een soort kunstmatig oor. Eigenlijk kun je met kunstmatige intelligentie een assistent creëren die nooit moe wordt. Ik heb nog altijd meer vertrouwen in mensen dan in machines, maar als mens en machine samenwerken worden er betere beslissingen genomen. Een kunstmatig brein kun je van alles leren. Dat is nieuw, en eng. Maar daarom moeten we erover blijven praten, zodat we het inzetten voor de góede dingen.”

Het idee van ‘nep’ komt volgens Willem in het dierenrijk ook voor. Een rups die zich voordoet als slang geeft hem hoop. “We hebben al een getrainde blik om nep te onderscheiden van echt. Er komt nu alleen technologie bij. Vroeger leerde ik op school dat roddels iemand kunnen kwetsen, van deepfakevideo’s moeten we ook de gevaren leren.”

“Een roddel of een nepvideo is wel een groot verschil”, reageert Freek. Maar volgens Willem is het vergelijkbaar, in een nieuw jasje. “Misschien komt het harder aan, omdat we visueel ingesteld zijn. Als dat zo is, dan kunnen we er als mensen iets op verzinnen om ermee om te leren gaan. Zoals een keurmerk.”

Begrip bij jongeren

“Ik denk dat het besef er is bij jongeren”, reageert Willem. “Maar het feit dat wij mensen een computer iets kunnen leren, moet plaats krijgen in de educatie. En de lerende mens moet dat concept nog beter inzien, om de praktische toepassing ervan te vergroten. Emoties hebben computers niet, dachten we. Maar door kunstmatige intelligentie kunnen we steeds meer ‘labels’ op computers plakken. En dan kom je op filosofische vraagstukken als ‘kan een computer gevoelens hebben, ergens van houden?’. We verliezen steeds meer eigenschappen die mens eigen zijn.”

Het tegengeluid van Willem – ‘ik sta er optimistisch in’ – wordt gewaardeerd in de chat. “Iedereen kent het filmpje waarin mensen reageren op de mobiele telefoon, niemand kon bedenken wat het ging brengen”, besluit hij. “Dat geldt voor elke nieuwe ontwikkelingen, het is een spannend pad. En daarover moeten we blijven discussiëren.”

In bredere context met pessimistisch randje

In het afsluitende panelgesprek reageert filosofe Elize op de eerdere introducties, die Willem in zijn verhaal benoemde. “Alles wat we uitvinden, doet iets op grotere schaal. De gloeilamp wakkerde de 24-uurseconomie aan, het vliegtuig de globalisering. Het is belangrijk om aan de vooravond van elk nieuw ‘medium’ samen te komen en te fantaseren over wat er mogelijk is en welke angsten gegrond zijn.” En UvA-onderzoeker Michael wil het positieve geluid van Willem toch van een pessimistisch randje voorzien, want zegt hij: “In de verkeerde handen kan desinformatie een wapen zijn. Bij deepfakevideo’s wordt jouw identiteit door een ander bepaald, dat kun je strategisch inzetten; het is een politiek wapen waar we ons écht zorgen om moeten maken.”

Meer informatie: 

Laat een reactie achter

Vul je e-mailadres in om op de hoogte te blijven van reacties (je e-mailadres wordt niet gepubliceerd).

Reacties worden eerst goedgekeurd door de redactie.