Sociale media kunnen meer doen om tijdslijn van tieners veilig te houden, maar zij zijn niet alleen verantwoordelijk

"Pano" toonde gisteren hoe jonge mensen in een gesloten netwerk praten over zelfverminking. Instagram en andere sociale media hebben richtlijnen voor dat soort beelden. Maar moeten de technologiebedrijven niet meer doen om hun apps veilig te houden? Want op Instagram - en zeker TikTok - kom je zo in contact met schokkende beelden.

In de reportage 'Geheim op Instagram' in het programma "Pano" zien we onder meer de moedige getuigenis van de ouders van Amber, die als prille twintiger besliste om uit het leven te stappen. Na haar dood ontdekten Ambers ouders dat ze zich ophield in een gesloten netwerk op Instagram, waar onder meer werd gepraat over zelfverminking.  

Amber worstelde met psychologische problemen en deelde ervaringen met leeftijdgenootjes in dat gesloten netwerk. Haar omgeving had geen idee van die virtuele wereld van eetstoornissen, mentale problemen en zelfverminking. Er was geen controle en ook Instagram greep niet in, hoewel er in de richtlijnen duidelijk staat dat foto's van onder meer zelfverminking niet toegestaan zijn. In hoeverre speelden de sociale media en de verhalen mee in de dood van Amber? Waar ligt de verantwoordelijkheid en is die wel zo eenvoudig te benoemen?

Bekijk hier de reportage en lees verder onder de video:

Video player inladen...

Anoniem mag

De jongeren met wie Amber haar verhalen en worstelingen deelde, zaten niet onder hun eigen naam op Instagram. Ze gebruikten schuilnamen. In de voorwaarden van Instagram staat dat je onder een schuilnaam op de app mag, maar dat het bedrijf wel je identiteit moet kennen.

De jongeren volgden elkaar via privéaccounts, een netwerk van honderden profielen. Anders dan openbare accounts, die iedereen kan volgen, beslist iemand met een privéprofiel wie alles mag zien. Als een handvol accounts, op een app zoals Instagram, TikTok of Snapchat, elkaar volgen via privé-accounts, dan is het voor de buitenwereld natuurlijk moeilijk om te volgen wat er in die netwerkjes gebeurt. Vaak niets; onschuldige tienerpraat. Maar soms ook veel meer, zoals bleek uit de reportage in "Pano".

In de richtlijnen van Instagram, eigendom van moederbedrijf Facebook, lezen we dat "ter bevordering van een veilige omgeving die Facebook wil zijn, inhoud die zelfmoord of zelfbeschadiging aanmoedigt, wordt verwijderd. Dat kunnen bepaalde expliciete beelden zijn die volgens deskundigen ertoe kunnen leiden dat anderen dit gedrag nadoen. We willen dat Facebook een plek is waar mensen hun ervaringen kunnen delen, bewustzijn kunnen creëren over deze problemen en steun kunnen zoeken bij elkaar, en daarom staan we toe dat mensen praten over zelfmoord en zelfbeschadiging."

Vorig jaar, in de periode rond de zomer en iets later, verwijderde Instagram 845.000 berichtjes, foto's en video's die gingen over zelfbeschadigingen of zelfmoord. In de periode april tot juni daarvoor waren dat er nog eens 835.000. Acht op de tien berichtjes werden verwijderd vóór ze online kwamen of iemand ze rapporteerde. Dat zijn een heleboel berichten.

Maar het duurde wel tot de zelfdoding van een Brits meisje van 14 in 2017 dat uiteindelijk Facebook en Instagram in 2019 meer maatregelen zou nemen tegen berichtjes op zelfbeschadiging en -doding. Het meisje Molly zag via Instagram veel foto's en video's over depressie en zelfdoding. "Op vlak van zelfbeschadiging hebben we niet goed ons best gedaan", klonk het bij Facebook toen. "We moeten meer en beter doen."

De onophoudelijke strijd tegen schokkende beelden

Facebook en Instagram maken onder meer gebruik van kunstmatige intelligentie, AI, om gevoelige beelden te screenen. Maar de snelste manier om beelden met zelfverminking van Instagram te halen, is als gebruikers die beelden rapporteren. Zo kan Instagram haar 'machines' leren hoe beelden van zelfverminking eruitzien. Iemand wiens foto wordt gerapporteerd, krijgt in ons land trouwens ook een link te zien naar het Centrum ter Preventie van Zelfdoding voor hulp.

Op vlak van zelfbeschadiging hebben we niet goed ons best gedaan. We moeten meer en beter doen.

Facebook, moederbedrijf van Instagram, na de dood van een meisje van 14 in het Verenigd Koninkrijk

Het voorbije anderhalf jaar is het aantal mensen dat binnen Facebook en Instagram gerapporteerde en mogelijke schadelijke inhoud controleert, gegroeid van 10.000 naar 35.000 mensen wereldwijd. En in de zoekfunctie op Instagram verschijnen schokkende beelden niet meer als suggestie.

Maar uit de reportage in "Pano" leren we dat de jongeren dat weten te omzeilen met de vraag om elkaar niet te rapporteren. En zo blijven bepaalde beelden toch te zien  die volgens de richtlijnen van Instagram niet op de app mogen.

Op een app als TikTok heb je nog eenvoudiger toegang tot schokkende beelden en video's. Wie de taal van TikTok en de juiste hashtags kent, komt zo uit bij accounts met gevoelig materiaal. Wie onder de hasthag #selfharm zoekt, vindt niets en krijgt hulp aangeboden. maar uiteraard wordt zoiets omzeild door de gebruikers.

Wie op TikTok van het ene filmpje naar het andere swipet, komt bovendien alles tegen: van grappige filmpjes naar dansende onschuldige jongens en meisjes gaat het naar seksueel getinte filmpjes of mensen die verboden middelen aanbieden. Qua 'veilig' online surfen staan Facebook en Instagram dan een pak verder. 

Al die netwerken zijn zo groot geworden en hebben wereldwijd immens veel  impact. Welke invloed willen we dat ze hebben op onze maatschappij? Dat is de grote vraag die deze "Pano"-reportage stelt. Leveren ze enkel technologie? Of zijn ze zo groot geworden dat ze nu ook maar eens verantwoordelijk moeten gesteld voor die miljoenen berichten die elke dag worden gepost?

Als je een foto post geef je Instagram een gebruikersrecht, maar wordt het niet eigenaar van je foto's. Dus kan het bedrijf ook niet snel aansprakelijk worden gesteld voor wat er wordt gepost.

Bovendien werken al die apps met algoritmes die altijd maar dezelfde soort inhoud aanbieden. Als je op Spotify voor popmuziek kiest, ga je zelden of nooit heavy metal als luistertip krijgen. Wie bepaalde accounts volgt op Instagram en TikTok, krijgt ook meer van hetzelfde. Ook als dat over gevoelige inhoud gaat. Dat moet toch anders kunnen? Wie al kwetsbaar is, kan zo verder en dieper afdwalen.

Screenshot uit "Pano"

Een schokkend beeld kan ook een schreeuw om hulp zijn

Schokkende beelden kunnen natuurlijk ook net een preventieve werking hebben. En dat is een dunne lijn waarop sociale media balanceren. Een jongere die een foto deelt van zijn of haar littekens en net waarschuwt voor de gevolgen van zelfverminking, kan op een netwerk waar geen ouders of hulpverleners meekijken, net een belangrijke rol spelen in die preventie.

Een studie van de Universiteit van Leeds in het Verenigd Koninkrijk stelde vast dat het delen van verhalen en foto’s van herstel ook een helende werking kan hebben. Jongeren kunnen sociale media ook net gebruiken om troost en kracht te vinden bij elkaar zonder dat er wordt geoordeeld. 

Maar dan speelt ook wel de tekst bij een foto een belangrijke rol. Die tekst kan enerzijds waarschuwen voor de gevolgen van zelfbeschadiging, maar kan ook net aanzetten tot zelfverminking. En die complexe samenhang van taal in berichtjes, de gevoeligheden in woordkeuze en nuances, daar heeft kunstmatige intelligentie nog een lange weg af te leggen. 

Sociale media zijn wat we er zelf van maken. Toch is het de verantwoordelijkheid van technologiebedrijven om hun apps veilig te houden.

Een gesloten netwerk op sociale media kan jongeren een gevoel van veiligheid geven, waar ze in anonimiteit met elkaar – en toch ergens in alle openheid – hun diepste gevoelens kunnen delen. Die contacten, die ervaringen, kunnen wat betekenen. Maar er dreigt altijd wel het gevaar om afgesloten te geraken van de echte wereld.

Al is dat vaak niet enkel en alleen de schuld van de sociale media. De problematiek is complex. Belangrijk is ook om offline te kunnen reageren en hulp te bieden. Maar voor hulpverleners die niet altijd mee zijn met de digitale wereld is dat geen evidentie. Zeker als je niet kan meekijken.

KU Leuven onderzocht, samen met de Universiteit van Wenen en Pennsylvania, de gevolgen van beelden van zelfbeschadiging op Instagram. Daaruit bleek dat de impact van die beelden bij jongeren voor veel emotionele stress kan zorgen en in uitzonderlijke gevallen tot zelfverminking of zelfmoord kan leiden.

Wie kan nog controleren wat er elke dag wereldwijd wordt gepost?

Sociale media zijn vaak wat we er zelf van maken. En wat we er zelf mee doen. Toch is het de absolute verantwoordelijkheid van technologiebedrijven als Facebook, Instagram, Snapchat, TikTok om hun apps veilig te houden. 

Elke dag alleen al gebruiken 500 miljoen mensen Instagram Stories, de verhaaltjes die na 24 uur ‘verdwijnen’. Elke maand gebruiken alleen al 1 miljard mensen Instagram. Hoe zullen technologiebedrijven met dat volume van foto’s en video’s blijven omgaan? Hoe zullen ze die content blijven modereren? Dezelfde vragen gelden voor Snapchat en TikTok.

De cijfers en de maatregelen tonen dat een bedrijf als Instagram dit soort berichtjes massaal tegenhoudt. Het is hun verantwoordelijkheid om te blijven investeren in de preventieve aanpak, om de miljoenen berichten die elke dag worden gepost te monitoren en desnoods te blokkeren.

Maar je kan vandaag nog altijd foto's met bijvoorbeeld zelfverminking posten. Instagram toont zo een foto eerst met een filter en een waarschuwing. Als gebruiker heb je de keuze om alsnog op de foto te klikken. Dan leg je nog erg veel verantwoordelijkheid enkel en alleen bij de gebruikers.

Bijbenen

Maar het zou te eenvoudig zijn om de enige verantwoordelijkheid bij de techbedrijven te leggen. We moeten praten over content moderation, over wat kan en niet kan op sociale media, over de invloed van die sociale media op onze mentale gezondheid en ons allemaal. Over de rol en de kennis over die digitale netwerken in de psychologische hulpverlening. De technologie gaat razendsnel en we moeten bijbenen. En alle nodige maatregelen afdwingen.

Laten we daarnaast, in de klas bijvoorbeeld, tijd nemen om jongeren te versterken: om met sociale media om te gaan, om te praten over hoe we ons voelen. Zodat jongens en meisjes als Amber hun plek vinden.

Meest gelezen