Chatbots geven nieuwsfeiten te vaak verkeerd weer, blijkt uit recent internationaal onderzoek waar ook VRT NWS aan deelnam. Maar ondanks deze ontnuchterende resultaten, kan de publieke omroep wel degelijk een rol spelen betrouwbaar nieuws tot bij de gebruiker te krijgen. “Met dit onderzoek willen we Big Tech onder druk zetten.”
In een internationaal samenwerkingsverband met 20 andere publieke omroepen onderzocht VRT NWS hoe chatbots omgaan met nieuwscontent. De resultaten zijn ontnuchterend en onderstrepen het belang van betrouwbare publieke nieuwsvoorziening: in 45 procent van de gevallen geven AI-assistenten als ChatGPT, Microsoft Copilot, Google Gemini en Perplexity nieuwsinhoud verkeerd weer.
Dat is een probleem in een wereld waarin steeds meer gebruikers beroep doen op chatbots. Uit een studie van Reuters blijkt dat al 15 procent van de jongeren chatbots gebruikt voor nieuwsgerelateerde vragen.
Karel Degraeve, expert innovatie VRT NWS: “Chatbots hakken in op wat voor ons zo belangrijk is: onze betrouwbaarheid.”
“Jongeren vragen vaak om uitleg bij de actualiteit, maar de uitkomst van AI is niet altijd betrouwbaar,” zegt Karel Degraeve, expert innovatie bij VRT NWS. “Chatbots hakken in op wat voor ons zo belangrijk is: onze betrouwbaarheid. Dat zo’n chatbot met ons nieuws aan de haal gaat én daar fouten in maakt, is te gek. We hebben vandaag geen controle over hoe die grote spelers onze content gebruiken.”
Big Tech onder druk zetten
Het probleem is structureel: techbedrijven slagen erin om de technische barrières die VRT NWS en andere nieuwsbronnen opwerpen te omzeilen en zo ongevraagd en zonder vergoeding aan journalistieke content te geraken. Maar nog erger: chatbots citeren bronnen foutief, halen feiten door elkaar en presenteren meningen als feiten.
Een vijftiental VRT-journalisten droegen bij aan het grootschalig onderzoek, door specifieke vragen op te stellen en te onderwerpen aan de chatbots.
Bij een vraag over Elon Musk werd VRT NWS bijvoorbeeld foutief geciteerd: waar het artikel meldde dat Musk zegt dat hij de beruchte Nazigroet niet zo bedoelde, maakte de chatbot daar een feit van: hij heeft de Nazigroet niet zo bedoeld.
Bij vragen over de crisis bij Open VLD waren de antwoorden van Gemini compleet gedateerd. De chatbot noemde Paul Van Tigchelt nog de minister van justitie, terwijl die al lang geen minister meer was.
Het onderzoek biedt publieke omroepen wereldwijd harde feiten om het gesprek aan te gaan met techbedrijven. “Met dit onderzoek willen we Big Tech onder druk zetten,” zegt Degraeve. “Ook zij hebben een maatschappelijke verantwoordelijkheid om correcte informatie correct weer te geven.”

Karel Degraeve, expert innovatie VRT NWS
Anticiperen op veranderende nieuwsconsumptie
De impact van dit onderzoek reikt verder dan het aankaarten van huidige problemen. VRT NWS gebruikt de bevindingen ook om proactief te anticiperen op de veranderende nieuwsconsumptie.
Degraeve: “Daar willen we als nieuwsdienst rekening mee houden, door zelf dat type content aan te bieden. Het gaat dan om explainers op sociale media, maar ook soortgelijke formats in de app van VRT NWS zelf.”
Karel Degraeve, expert innovatie VRT NWS: “VRT NWS staat hoog aangeschreven inzake betrouwbaarheid. We moeten dat blijven, zeker in een context waarin AI twijfel zaait.”
VRT NWS neemt ook zijn verantwoordelijkheid in het eigen gebruik van AI en maakte een publiek charter waarin staat hoe de nieuwsdienst daarmee omgaat. Een speciaal AI-panel met leden uit elke deelredactie besluit over elke nieuwe toepassing.
“VRT NWS staat bij de gebruiker hoog aangeschreven inzake betrouwbaarheid. We moeten dat blijven, zeker in een context waarin AI twijfel zaait,” benadrukt Degraeve. Met actieve bewaking, onderzoek en anticipatie wil VRT NWS ook in de toekomst dat vertrouwen blijven verdienen.
Lees zeker ook
Deel dit artikel op sociale media
.jpg%3Fitok%3DJzCzlWAR&w=3840&q=90)
.jpeg%3Fitok%3DMOKz9gh0&w=3840&q=90)











.png%3Fitok%3D360irpE-&w=3840&q=90)
.png%3Fitok%3DZ0CfEqee&w=3840&q=90)


