Het einde van de werkelijkheid 1: we mogen onze oren en ogen niet meer geloven  

Frederik De Bosschere laat voor vrtnws.be tweewekelijks zijn licht schijnen over verrassingen of tegenslagen in de wondere wereld van de digitale technologie. Vandaag: het eerste deel van een drieluik over hoe technologie met onze werkelijkheid speelt: Artificiële Intelligentie zorgt ervoor dat machines kunnen redeneren. Maar: ze kunnen ook creatief aan de slag met beeld en klank. Met gevolgen.

labels
Frederik De Bosschere
Frederik De Bosschere is strateeg bij In The Pocket, dat strategisch en technologisch advies geeft en digitale producten bouwt voor bedrijven als Bancontact, Colruyt en Samsonite. Twitter: @vrederik.

Artificiële Intelligentie zorgt ervoor dat machines kunnen redeneren. Maar: ze kunnen ook creatief aan de slag met beelden. Enige neveneffect: het einde van de werkelijkheid. Hoe ver reikt die creativiteit? En waarvoor wordt die gebruikt?

Zoom and enhance!

Donker bureau. Een inspecteur zoekt een moordenaar. Hij kijkt mee over de schouder van een punkster-computerspecialiste. Op het scherm: korrelige beelden van een beveiligingscamera. In de verre verte zien we — naast het bed in de slaapkamer die we vanop een straatcamera zien - een wijnglas. “Check dat glas, misschien zit er lippenstift op.” En dan, dé woorden: “Zoom, and enhance!” “Enhance.”  Vertrekkend vanuit wat eerst enkele pixelblokken waren, tovert de computer plots een hypergedetailleerde lipafdruk tevoorschijn. “Boom, we got her.”

Helaas voor alle CSI-personages: 'zoom and enhance’ zal nooit in staat zijn om op magische wijze DNA-bewijs te destilleren uit slecht beeldmateriaal. Maar tegenwoordig bestaan er wel degelijk AI-programma’s die getraind zijn om zelf beelden te verzinnen, of althans stukken ervan.

Kijk bijvoorbeeld wat dit algortime doet met volgend pittoresk doch gepixeld Grieks kusttafereel:

Het algoritme is getraind op een set vergelijkbare foto’s, en vult zelf de ontbrekende details aan. Beeld je maar eens in wat gebeurt als we dit loslaten op een fotoarchief uit minder geavanceerde tijden. History, now available in Full HD.

Dreaming of a white Christmas

Wie zelf eens wil spelen met dat soort algoritmes:

- Met AutoDraw van Google kan je schetsen maken, die door de computer worden herkend en omgezet tot mooie illustraties (spoiler: een piemel tekenen leidt - ironisch genoeg - tot een duim omhoog).

- Dit algoritme gaat nog een stap verder. Je tekent een kat en de computer gaat die zelf ‘inkleuren' met texturen en ontbrekende details. Het resultaat zal er wellicht uitzien als Frankensteins kat, maar de technologie erachter is knap: door slechts 2.000 foto’s van katten te bekijken leert het model hoe zo’n kat er dan typisch uitziet.

Nog eentje om het af te leren. Check volgend staaltje computerfantasie. Hier transformeert het algoritme de weersomstandigheden op de foto’s: 

Tot zover het leuke stuk van deze column.

Een beetje Photoshop … so wat?

Beelden vervalsen is van alle tijden. De Russische communistische leider Stalin snapte al dat mensen uit foto’s knippen de beste manier was om die figuren meteen ook uit de geschiedenisboeken te schrappen. Computers maakten dat zo eenvoudig dat we intussen op onze hoede zijn voor gephotoshopte beelden.

Recent is er echter een verontrustend fenomeen opgedoken: ‘deepfakes'. Een Reddit-gebruiker lanceerde een eenvoudig tooltje om mensen ook redelijk realistisch in video’s te plakken. Daarmee laat hij een (machine learning) model naar een hoop films kijken, in zijn geval starring Superwoman-ster Gal Gadot, om de arme actrice vervolgens in een pornovideo te plakken.

Omdat we beschaafde mensen zijn en dat soort ‘fake celebrity porn’ natuurlijk een nieuw dieptepunt is: hieronder een voorbeeld van dergelijke deepfakes … met Nicolas Cage.


(Filmkenners weten natuurlijk dat Cage een relatief eenvoudige case is, aangezien hij in quasi elke shot dezelfde iconische tronie tentoonspreidt.)

Het vergt weinig fantasie om te zien hoe problematisch dat soort beeldmanipulatie kan worden. In de VS is de hele #fakenews-crisis nu al bepalend voor het politieke apparaat, met gratuite headlines als “Hillary Clinton gaat lachend zitten op pasgeboren cavia’s.” Wacht maar tot je mevrouw Clinton en haar derrière ook daadwerkelijk op die arme diertjes ziet neerdalen.

Gezegd is gezegd

Video is dus niet meer veilig. Maar binnenkort worden ook je oren gemanipuleerd. Adobe, het bedrijf achter Photoshop, werkt bijvoorbeeld aan een programma om stemopnames te fabriceren. Ze maken zich sterk dat ze, na slechts 20 minuten luisteren, je alles kunnen laten zeggen.

Al zullen deepfakes en stemvervorming tot hi-la-rische mopjes leiden op kantoor, de keerzijde kan immens zijn. De New York Times verwacht dat valse video en audio zo overtuigend zullen worden dat we het onderscheid met echte media niet meer zullen zien, waardoor audiovisuele opnames niet langer als bewijsmateriaal zullen kunnen dienen in de rechtbank.

Om het met de woorden van journalist Oli Franklin-Wallis te zeggen: "The biggest casualty to AI won't be jobs, but the final and complete eradication of trust in anything you see or hear”.

---

VRT NWS wil op vrtnws.be een bijdrage leveren aan het maatschappelijk debat over actuele thema’s. Omdat we het belangrijk vinden om verschillende stemmen en meningen te horen publiceren we regelmatig opinieteksten. Elke auteur schrijft in eigen naam of in die van zijn vereniging. Zij zijn verantwoordelijk voor de inhoud van de tekst.