Video player inladen ...

Hoe vervalste pornofilmpjes nieuwe vorm van fake news kunnen worden

Op pornosites duiken steeds meer filmpjes op van beroemdheden in expliciete poses. Het zouden gestolen filmpjes kunnen zijn van hun gehackte smartphone, maar even goed vervalste video's. Want het vervalsen van bewegend beeld wordt steeds realistischer en gemakkelijker dankzij artificiële intelligentie. Computerwetenschapper Jeroen Baert legt in “De Afspraak” uit hoe het werkt en wat de gevaren zijn.

Het gezicht van de ene persoon plakken op het lichaam van een andere. Voor wie een beetje met Photoshop kan werken, is dat vrij simpel. Maar met bewegende beelden is dat een heel ander paar mouwen. Tot een anonieme gebruiker een tijdje geleden het programma “FakeApp” ontwikkelde en dat lanceerde op het populaire internetforum Reddit. 

Sindsdien kunnen filmpjes op een vrij eenvoudige manier vervalst worden, met behulp van artificiële intelligentie. “Deepfake is een techniek waarbij via artificiële intelligentie het gezicht van persoon A naadloos op het gezicht van persoon B geplakt wordt”, zegt computerwetenschapper Jeroen Baert van de KU Leuven in De Afspraak.

“Je vertrekt met een filmpje langs de ene kant, en langs de andere kant met een hele, grote hoop foto’s. Die twee dingen worden in een programma gestopt dat eerst aan gezichtsherkenning zal doen, bij zowel de foto’s als het filmpje. Daarna gaat het programma zichzelf trainen om van de foto’s naar het filmpje te gaan.”

De laatste tijd verschijnen er vaak vervalste pornofilmpjes van beroemdheden op het internet, omdat de deepfake-techniek toegankelijk is voor het grote publiek. “Dit is een automatische techniek, hier is geen kennis voor vereist. Je voert de input in, je wacht drie dagen en er komt een filmpje uit.” 

Nieuwe vorm van "fake news"

Behalve deze videotechniek bestaat er ook al een soort “Photoshop voor stemgeluid”. VoCo, een audioprogramma van Adobe, kan aan de hand van enkele voorbeeldzinnen geheel nieuwe zinnen produceren die niemand nooit heeft uitgesproken. Wat als op die manier filmpjes kunnen gecreëerd worden van politici die een speech geven die ze nooit echt hebben gegeven? 

De technieken worden steeds beter waardoor het lastiger wordt om een echte video te onderscheiden van een valse. Op die manier wordt de strijd tegen fake news nog moeilijker. Jeroen Baert: “Het hoeft zelfs niet eens 100 procent correct te zijn uitgevoerd, twijfel zaaien is genoeg. Kijk maar hoe snel fake news zich verspreidt als je maar genoeg beelden vervalst.”