Waarom VRT NWS Wim De Vilder dingen laat zeggen die hij niet zegt

VRT NWS heeft een toepassing laten ontwikkelen waarin je "Het Journaal"-anker Wim De Vilder in het Arabisch hoort presenteren én hem een nieuwsbericht ziet brengen vol met feitelijke fouten. Met dat experiment wil VRT NWS aantonen dat we niet alleen de voordelen van Artificiële Intelligentie (AI) moeten erkennen en omarmen, maar dat we ook alert moeten zijn voor mogelijke gevaren. In tijden van desinformatie is het belangrijk om te weten welke manipulaties mogelijk zijn.

"Deepfake"! Al over gehoord?

VRT NWS heeft een "deepfake" Wim De Vilder laten ontwikkelen. Dat is gebeurd in samenwerking met het bedrijf ML6 uit Gent dat gespecialiseerd is in toepassingen met artificiële intelligentie. In zo’n "deepfake" filmpje ziet u Wim De Vilder - in video - dingen zeggen die hij nooit gezegd heeft of die hij zelfs niet kan zeggen. U ziet Wim in het Arabisch het recept van een tajine brengen. Hij kan het niet echt. Maar de technologie van Artificiële Intelligentie kan u doen geloven dat hij dat wel kan. Of Wim De Vilder die een nieuwsbericht brengt vol feitelijke fouten. Het kan, voorlopig alleen nog maar omdat VRT NWS zelf actief aan het experiment meewerkte, om te informeren over de mogelijkheden op dat vlak.

Desinformatie bestaat overal

Nieuwsorganisaties moeten al een hele tijd omgaan met desinformatie en "fake news". Professionele journalisten moeten alles controleren voor informatie doorgespeeld kan worden aan het publiek. Het gaat dan over woordelijke informatie, evenals klank, foto en video. 

Een "deepfake"-video is een extreem voorbeeld dat (nog) niet vaak voorkomt. Met dit extreme voorbeeld, willen we als nieuwsdienst ons publiek wijzen op het bestaan van die meer verregaande mogelijkheden.

Dat valse informatie of halve waarheden op verschillende fora opduiken, weet u vermoedelijk al. Niet alles wat u ziet op sociale media, moet u geloven. Er wordt bewust foute informatie verspreid, er worden bewust slechts halve waarheden verteld om zo veel mogelijk mensen van één bepaald standpunt te overtuigen, informatie wordt vereenvoudigd met de bedoeling te beïnvloeden of de context van een verhaal wordt met datzelfde doel weggelaten. 

Maar de misleiding kan verder gaan. Een "deepfake"-video is een extreem voorbeeld dat (nog) niet vaak voorkomt. Met dit extreme voorbeeld, willen we als nieuwsdienst ons publiek wijzen op het bestaan van die meer verregaande mogelijkheden. Kent u de video waarbij voormalig Amerikaans president Barack Obama zijn opvolger Donald Trump ‘a total and complete dipshit’ noemt? Obama heeft dat nooit gezegd, maar u ziet het hem wel doen in een bewerkte video. Als u goed kijkt, ziet u dat het niet helemaal klopt. Maar de evolutie van Artificiële Intelligentie maakt wel dat deze vorm van misleiding almaar ‘beter’ wordt, moeilijker om te onderscheiden van échte video. 

Elk voordeel heeft z’n nadeel, en omgekeerd

Voor elke vorm van misleiding door AI, worden ook toepassingen ontwikkeld om die AI te ontmaskeren. Toch is het goed dat iedereen verstandig met al die vormen van media leert omgaan en zich bewust is van de mogelijkheden tot misleiding. Daarvoor dienen nu net professionele media. Bij professionele organisaties moet u ervan uit kunnen gaan, dat er een (liefst dubbele) controle gebeurd is op alle informatie die verspreid wordt. Zodat u bij die professionele media wel kan geloven wat u leest, hoort en ziet. 

Elk nieuwsbericht wordt gecheckt bij 2 onafhankelijke bronnen. Als er maar één bron is, wordt op andere manieren bijkomend onderzoek gedaan om na te gaan of de bron wel geloofwaardig is. Beelden die we uitzenden, hebben we bijna altijd zelf gefilmd. Voor buitenlands nieuws kunnen we niet altijd eigen journalisten uitsturen en werken we met buitenlandse agentschappen en met EBU, het Europese samenwerkingsverband van openbare omroepen, waarin alle beelden dubbel gecheckt worden. Die controle gebeurt met mensen én met technologie. Er bestaat software om te checken of beelden authentiek zijn of niet. Ook zelf gebruiken we verschillende computerprogramma’s en –applicaties om de nodige controles uit te voeren. Zijn we niet zeker? Dan wachten we met publicatie tot we wel bevestiging hebben.

VRT NWS is een professionele nieuwsorganisatie en al onze medewerkers doen er op die manieren alles aan om elk bericht, elke foto, elke video te controleren op de echtheid.

VRT NWS is een professionele nieuwsorganisatie en al onze medewerkers doen er op die manieren alles aan om elk bericht, elke foto, elke video te controleren op de echtheid. Bij elk verhaal willen we voldoende informatie en context hebben om een juist verhaal neer te zetten.

Met dit experiment wil VRT NWS – in een gecontroleerde omgeving – aantonen wat de gevaren van die AI-toepassingen kunnen zijn. Kunnen. Want Artificiële Intelligentie brengt vooral goede ontwikkelingen met zich mee: AI om een aankomende epilepsieaanval te detecteren, AI om vroeger te waarschuwen wanneer er in hersenen een tumor tot ontwikkeling komt, AI om de energieverdeling in een fabriek te optimaliseren, AI om navigatie-apps te verbeteren. Kortom, redenen genoeg om de vooruitgang te omarmen, maar tegelijk niet blind te zijn voor de mogelijke valkuilen.