Wat als computers slimmer worden dan mensen?

Of je nu meegaat in futuristische doemscenario’s over hoe technologie de mensheid zal overnemen, of niet: we moeten vandaag al nadenken over wat er op ons afkomt. 

labels
Opinie
Aansturen van de 'opinie' teaser o.a. op de home pagina en 'opinie' weergave op een detail artikel. Deze tag zorgt er ook voor het automatisch aanvullen van de 'opinie' overzichtspagina

Vorige week hadden we op Shift, In The Pocket's jaarlijkse technologische hoogmis, AI-autoriteit Nick Bostrom op bezoek. Bostrom is Oxford professor en hoofd van het ‘Future of Humanity Institute’ (en u dacht dat uw functietitel druk met zich mee bracht). Daarnaast is hij auteur van bestseller ‘Superintelligence', dat door mensen als Elon Musk en Bill Gates wordt beschouwd als het referentiewerk over artificiële intelligentie en onze toekomst.

In dat boek waarschuwt Bostrom voor de stroomversnelling die op ons afkomt. Zijn verhaal, in een notendop: waar AI vandaag al goed werkt binnen specifieke domeinen ('Artificial Narrow Intelligence'), komt er ooit ook ‘Artificial General Intelligence’. Die kan - zoals mensen - een breed gamma aan problemen oplossen, en kan ook dingen doen waarvoor het niet specifiek getraind werd.

Zo’n systeem kan dan op zijn beurt een nóg slimmer systeem ontwerpen. Dat bedenkt op zijn beurt een nóg slimmer systeem … en zo komen we uit bij “Artificial Superintelligence’. Een systeem dat wij mensjes in snelheid, slimheid en tout court alles-heid overklast. Een systeem dat wij niet langer kunnen begrijpen. Het wordt een uitvinding waarover wij als bedenkers wel eens de controle kunnen verliezen (een beetje zoals het Comic Sans lettertype).

Professor Bostrom pleit voor het inbouwen van een noodrem, vóór we onszelf verliezen in al die artificiële euforie. Bijkomstige uitdaging: we hebben nog geen idee hoe zo’n superintelligent AI-systeem zal werken.
Geen makkelijke oefening: een leeuw temmen als je die enkel nog maar gezien hebt op kindertekeningen.

 De waarschuwing van Bostrom is terecht. Maar: door zo ver in de toekomst te kijken, vervallen we snel in dystopische cliché-beelden en sarcasme: “Ja ja, robots zullen onze wereld overnemen ... dat ze eerst maar eens printers goed laten werken.”

Daardoor verliezen we uitdagingen uit het oog die wél prangend zijn voor onze huidige samenleving. Risico’s aanwezig in AI-systemen die vandaag al bestaan in belangrijke domeinen van de maatschappij, zoals onze economie, gezondheidszorg, ...

Een eerste groep risico's komt voort uit hoe zo’n AI-systeem werkt. Heel simpel gesteld (en dus inclusief het risico dat ik een kudde wilde experten achter mij aan krijg). Een computer-programma werkt op basis van regels, geprogrammeerd door een vakspecialist: ‘wanneer dit gebeurt, doe dan dit’. Een AI-algoritme leert zelf. Je geeft het een pak data en een succesvoorwaarde: ‘dit is wat we uiteindelijk willen bekomen’. Het algoritme begint dan zelf uit duizenden variaties de beste optie te kiezen, die het op zijn beurt nog eens begint te verbeteren, … 

Probleem 1 is de succesmaat: succes is subjectief.

Stel: je zet een systeem op om sociale uitkeringen optimaal en rechtvaardig te verdelen, op basis van een veelheid aan real-time economische en socio-demografische parameters. Het is een oefening waarin geen enkele mens nog zou slagen, en daardoor wellicht objectiever.

Behalve die succesconditie: wat is een rechtvaardige of optimale verdeling? 

Probleem 2 heeft met de data te maken.

Die data vormt de basis voor alle volgende beslissingen. Alle fouten in de dataset worden dus uitvergroot. Een voorbeeld: in rechtbanken in de VS is het gebruik van zogenaamde 'risk assessment’ systemen heel courant, om rechters te adviseren bij uitspraken of voorwaardelijke invrijheidstelling.

Dat algoritme baseert zich op historische data, en bevat dus ook alle (vaak impliciete) vooroordelen, zoals discriminatie en racisme. Het systeem is heel oneerlijk tegenover zwarte Amerikanen, ook al werd het allerminst zo geprogrammeerd.

Het AI-model aapt ons gedrag gewoon na. 

Probleem 3: Het voorbeeld van het eigen taaltje

Een laatste probleem dat inherent verbonden is aan hoe zo’n systemen werken, is toezicht: zelfs de ontwerper van een bepaald algoritme kan na verloop van tijd niet meer verklaren waarom het de ene, dan wel de andere beslissing maakt.

Misschien heb je al gehoord over AI-systemen die bij een onschuldige oefening plots een eigen taaltje ontwikkelen. Dat was geen expliciete instructie, maar een gevolg van het zoeken naar efficiëntie (spoiler: het viel wel mee).

Gevolgen?

Bovenstaande risico’s pleiten voor een debat rond ethiek. En vooral: voor meer begrip over de technologie bij een publiek breder dan insiders.

Dan is er nog een volledig ander, en wellicht meer imminent, gevaar. Dat is simpelweg de effectiviteit van die specifieke AI-systemen.

Die automatiseren steeds meer menselijke jobs. Indien goed aangepakt, komt er meer ruimte voor vrije tijd en een ander soort werk (in de creatieve sector, onderwijs en advies, zorg, …). Indien we het z’n beloop laten, dreigt een sociaal bloedbad.

Zo pleit Bill Gates zelfs voor een ‘belasting op AI’, nochtans heel contra-intuïtief voor een IT-ondernemer. Toch acht hij dat noodzakelijk, omdat we als maatschappij niet voorbereid zijn op zo’n snelle transformatie. 

 Het is een tsunami de grootte van de Industriële Revolutie, maar dan wel een die zich op enkele jaren tijd zal voltrekken.

Dan weet je dat het menens is. Het is een tsunami de grootte van de Industriële Revolutie, maar dan wel een die zich op enkele jaren tijd zal voltrekken.

Lang voor er ooit Artificiële Superintelligentie komt, moeten we opletten dat we onszelf al niet eerder in de voet schieten.

Wat me daarbij nog het meest verontrust, zijn onze beleidsmakers: die liggen liever te bekvechten over oude systeemtjes en regeltjes, dan zich bezig houden met het nieuwe. Bakken potentieel; best ook goed over nadenken.

--

VRT Nieuws wil op vrtnws.be een bijdrage leveren aan het maatschappelijk debat over actuele thema’s. Omdat we het belangrijk vinden om verschillende stemmen en meningen te horen publiceren we regelmatig opinieteksten. Elke auteur schrijft in eigen naam of in die van zijn vereniging. Zij zijn verantwoordelijk voor de inhoud van de tekst.