Geweld verspreiden in één muisklik op sociale media: wat doet Facebook om dat tegen te gaan?

Hoe gemakkelijk plaats je geweld online? Via verschillende sociale media deel je moeiteloos livebeelden waardoor moord, verkrachting en geweld in een muisklik binnenkomen in je huiskamer. Ook ons land ontsnapt er niet aan. Op Facebook plaatste een man uit Riemst deze week beelden van ernstig partnergeweld. Maar hoe treedt Facebook op in zulke gevallen? 

Facebook lanceerde in 2016 de functie om livebeelden te verspreiden en meteen was er sprake van een groot succes. Maar dat succes heeft ook een donkere kant: er werden steeds meer beelden met geweld, zelfmoorden en verkrachtingen live gedeeld op de website. Een moeilijk oplosbaar probleem dat door het grote succes van Facebook nog eens versterkt wordt. Wereldwijd worden er elke dag miljoenen video's online geplaatst en het is onmogelijk om die allemaal te controleren. 

Christchurch

Het probleem is dus al enkele jaren bekend maar het kantelmoment kwam er nadat extremisten de functie begonnen te misbruiken. Het bekendste voorbeeld zijn de aanslagen in Christchurch op 15 maart 2019. De dader zond live uit via Facebook hoe hij 50 mensen doodschoot in twee moskeeën. De automatische systemen van Facebook grepen niet in en het bedrijf ondernam pas actie nadat het verwittigd werd door de politie. Die live-uitzending kon meer dan 17 minuten doorgaan zonder dat iemand ingreep omdat de kunstmatige intelligentie dacht dat het een videospel was. 

Facebook kreeg toen een storm van kritiek over zich heen en besloot maatregelen te nemen. Het bedrijf ging kijken of het mogelijk was om de livestreamfunctie in te perken bij mensen die zich al eerder misdragen hebben. Het onderzocht ook hoe video's met geweld sneller herkend kunnen worden, om de verspreiding ervan te voorkomen. 

"Vorige week raakte bekend dat Facebook materiaal van body cams van politie gaat gebruiken om de systemen van Facebook te ‘trainen’ om sneller geweld te herkennen", zegt Tim Verheyden, sociale media-expert bij VRT NWS. Daarnaast werkt het ook aan manieren om het hergebruik van dat soort video’s, al dan niet bewerkt, tegen te gaan. Want daar lag het probleem. Bij de aanslagen van Christchurch werden er miljoenen video's verspreid van de livebeelden en is het volgens berichten van NBC tot op vandaag zelfs mogelijk deze beelden te bekijken op het internet. 

Content moderation

Maar dat zijn niet de enige maatregelen die het bedrijf heeft genomen tegen de video's: “Facebook heeft de laatste jaren geïnvesteerd in de aanwerving van 30.000 mensen, al dan niet via onderaannemers, die mee het platform van Facebook veilig moeten houden", aldus Verheyden. "Daar zitten ook duizenden mensen bij die aan zogenoemde content moderation doen, het screenen van berichten, foto’s en video’s die worden gerapporteerd. Maar ook preventief. Naast Artificiële Intelligentie die inhoud screent, komt er dus ook nog altijd mensenwerk aan te pas."  

Facebook heeft de laatste jaren geïnvesteerd in de aanwerving van 30.000 mensen, al dan niet via onderaannemers, die mee het platform van Facebook veilig moeten houden
Tim Verheyden

Die content moderation wordt grondig aangepakt. Er is een team dat wereldwijd de video's gaat beoordelen en dat 24 uur per dag, zeven dagen per week. Het team wordt ook speciaal getraind om onmiddellijk te kunnen reageren wanneer een livevideo wordt gerapporteerd. Daarnaast voert Facebook extra controles uit op live-uitzendingen die een bepaalde populariteit bereiken. Maar ook dat is geen waterdicht systeem. 

Vertraagde beelden

Een andere mogelijkheid zou zijn om de publicatie van videobeelden lichtjes te vertragen zodat er een voorafgaande controle kan gebeuren. In een interview met ABC zei Mark Zuckerberg, CEO van Facebook, hier resoluut tegen te zijn. "Het zou een fundamentele breuk zijn met wat livestreaming is voor mensen. De meeste mensen zenden livebeelden uit van een verjaardagsfeestje of wanneer ze samen zijn met vrienden", zegt Zuckerberg. "Een van de magische kanten van livestreaming is dat het langs beide kanten gebeurt, ... je zendt niet alleen maar uit, maar je communiceert. Een vertraging zou dat breken." 

De livebeelden controleren blijft dus een grote uitdaging voor Facebook. De Artificiële Intelligentie van Facebook staat momenteel niet ver genoeg om alle gewelddadige livestreams op het moment zelf stop te zetten. Er moeten dus meer geweldvideo's onderzocht worden voordat er meteen gereageerd kan worden. Tot dan zal Facebook vooral moeten steunen op rapporteringen door haar gebruikers en content moderation.