AFP or licensors

Waarom grepen "slimme computers" niet in tijdens livestream aanslag Christchurch? Facebook onderzoekt de zaak

De dader van de terroristische aanslag op een moskee in Christchurch zond de vreselijke daad rechtstreeks uit op Facebook. De automatische systemen van Facebook grepen niet in en het bedrijf ondernam pas actie nadat het verwittigd werd door de politie. Hoe kan dat?

Facebook kan op vraag van de politie niet alle informatie delen, maar het bedrijf laat weten dat de video van de aanslag tijdens de rechtstreekse uitzending minder dan 200 keer is bekeken. Geen enkele gebruiker rapporteerde de video tijdens de uitzending. Als dat was gebeurd, was er mogelijk sneller ingegrepen in de rechtstreeks uitzending. Pas 29 minuten na de start van de video, kwam er een melding. De video was toen al 12 minuten beëindigd.

In totaal is de originele video 4.000 keer bekeken voor Facebook hem verwijderde. In de 24 uren die volgden na de aanslag verwijderde Facebook 1,2 miljoen versies van de video van de aanslag die gebruikers op het netwerk hadden gezet. Tijdens het uploaden werden ze al verwijderd. 300.000 video's werden verwijderd nadat ze werden geüpload. Ook voor Twitter en YouTube was het na de aanslag alle hens aan dek om de verspreiding van de video tegen te gaan.

Slimme computers moeten nog meer worden getraind

Hoe kan zo een video zo lang op Facebook staan, was meteen na de aanslag te horen? Guy Rosen van Facebook legt uit dat Facebook Artificiële Intelligentie, slimme computers, gebruikt om de inhoud van video's te screenen: "We gebruiken kunstmatige intelligentie om video's te detecteren die zelfmoord of andere "schadelijke handelingen" bevatten. Rechtstreeks video's (Facebook Live's) brengen specifieke uitdagingen met zich mee. We blijven focussen op de tools, de technologie en onze beleidslijnen om Facebook veilig te houden voor de gebruikers."

"Artificiële Intelligentie (AI) heeft de voorbije jaren op veel gebieden enorme vooruitgang geboekt, waardoor we proactief al veel video's met ongepaste inhoud meteen kunnen verwijderen, of zelfs vermijden dat ze online komen. Maar het systeem is niet perfect. AI-systemen zijn gebaseerd op "trainingsgegevens", wat betekent dat je duizenden voorbeelden van dezelfde inhoud nodig hebt om het ​​systeem te trainen om dezelfde soorten tekst, beeldmateriaal of video te herkennen en eventueel te verwijderen. Dat werkt als het gaat over naaktheid, terroristische propaganda en ook over expliciet geweld."

"Deze specifieke video heeft echter niet onze automatische detectiesystemen geactiveerd. Om dat te bereiken, zullen we onze systemen moeten trainen met grote hoeveelheden gegevens van dit soort video's, iets wat moeilijk is omdat deze evenementen gelukkig zeldzaam zijn. Een andere uitdaging is om deze inhoud automatisch te onderscheiden van visueel vergelijkbare, maar onschadelijke video's, zoals bijvoorbeeld video's van live gestreamde videogames."

Facebook merkt ook op dat een eerste melding over de inhoud van de video pas na 29 minuten kwam. Gebeurt zo een melding vroeger, dan geven de systemen van Facebook voorrang aan gerapporteerde video's.