Advertentie
digitaal / Achtergrond

Essay: Het temmen van algoritmen

Algoritmen beïnvloeden ons leven steeds indringender. Omdat algoritmen niet altijd doen wat ze moeten doen, is controle noodzakelijk. Deze wordt steeds lastiger omdat algoritmen steeds complexer en uiteindelijk zelfs onbegrijpelijk worden. Elk bestuursorgaan heeft volgens Paul Strijp twee opties: experimenteren met die controle of berusten in de victorie van de technologie op onze democratie.

06 juli 2018
algoritme.jpg

De mens als een verzameling algoritmen. Hyperintelligente algoritmen die de mens beter kennen dan hij zichzelf kent. De mens die de zin van het leven niet in zichzelf zoekt, maar die betekenis aangereikt krijgt door algoritmen die deel uitmaken van een groot data-universum dat niemand nog echt begrijpt. En voor alle duidelijkheid: die algoritmen vertellen de mens ook nog een keer wat hij moet doen. Zo maar wat noties uit het boek Homo Deus, de wereldwijde bestseller van Yuval Noah Harari. Met zijn agenda voor de mensheid werd voor een miljoenenpubliek in één klap duidelijk wat het algoritme zoal voor ons in het verschiet heeft. En dat liegt er niet om.

Of het ooit zover zal komen is natuurlijk de vraag. Maar langzaam wordt wel duidelijk dat algoritmen, in essentie niet meer of minder dan rekenmethoden die worden toegepast op grote hoeveelheden data, bezig zijn aan een gestage en onomkeerbare opmars. Zij dringen door tot in de haarvaten van onze samenleving. Een paar voorbeelden. Adverteerders zijn door algoritmen in staat om ons na de online aanschaf van een boek een aanbieding voor te schotelen die naadloos past in onze interessesfeer. Na de schandalen rondom de verkoop van privégegevens door Facebook weten we ook dat we in ons keuzegedrag bij verkiezingen door algoritmen kunnen worden beïnvloed. Volgens sommigen duiden deze voorbeelden op een proces waarin we onze vrije wil – zonder dat we dat zelf in de gaten hebben – overdragen aan de bedrijven die ons met die algoritmen benaderen.

Foute pad
De overheid blijft niet achter. Zij heeft vooral tot doel om het gedrag van haar burgers te voorspellen. Zo is onze nationale politie met behulp van algoritmen in staat om voertuigen van de weg te halen als er verdovende middelen aan boord zijn. Door samenwerking met andere instanties is het voor de politie ook mogelijk om te voorspellen welke kinderen van vier (!) jaar later het foute pad op zullen gaan. Grote nationale handhavingsorganisaties zoals het UWV en de Belastingdienst kunnen uitkeringsfraude voorspellen. En de internationale beweging van smart cities – ooit in Singapore begonnen om de stad in de greep te houden – neemt gemeenten op sleeptouw. Steeds meer beleidsterreinen worden data-gestuurd: de aanpak van voortijdige schooluitval, het armoedebeleid, de bepaling van milieuzones, het reguleren van bezoekers- en verkeersstromen. De gemeente Kerkrade voorspelt zelfs eenzaamheid en depressiviteit onder haar inwoners.

Lang leve de algoritmen dus! Wie is er immers tégen het vangen van jonge boefjes? En de gemeente Kerkrade voorspelt niet omwille van het voorspellen. Neen, die voorspellingen stellen haar in staat om vroegtijdig gerichte interventies te doen. Om de eenzaamheid en depressiviteit vóór te zijn. Kortom, met de opmars van de algoritmen wordt ons leven steeds een beetje paradijselijker. Tot uiteindelijk elke vorm van menselijk lijden, menselijk tekort en kwetsbaarheid is verdwenen. Zover zal het echter nooit komen. Los van de wenselijkheid van een dergelijk bestaan (zijn lijden, tekort en kwetsbaarheid niet gewoon inherent aan ons menszijn?) kunnen algoritmen ook voor een wat minder paradijselijke wereld zorgen. Algoritmen zijn namelijk niet altijd gehoorzaam: soms doen ze niet wat ze moeten doen. Dan discrimineren ze bijvoorbeeld. Dat ondervonden rechters in de Verenigde Staten die gebruik maakten van op algoritmen gebaseerde software die kon voorspellen hoe groot de kans op recidive van verdachten was. Algoritmen kunnen ook de sociale tegenstellingen vergroten. En hoe slim ze ook zijn, soms leren ze zichzelf de verkeerde dingen. Rechtspraak en politiek krijgen deze risico’s steeds meer in het vizier.

Zo oordeelde de Raad van State in mei 2017 in een zaak over de Programmatische Aanpak Stikstof (PAS). Dat programma maakt het varkenshouders mogelijk om met behulp van een op algoritmen gebaseerd computersysteem een aanvraag voor een vergunning in te dienen voor de bouw of productie in natuurgebieden. Het hogere doel van dit alles is de regulering van de uitstof van stikstof. De uitkomst van deze aanvraag – wel of geen vergunning – was voor iedereen een grabbelton. Onze hoogste bestuursrechter droeg de betrokken bewindspersonen dan ook op om “….de gemaakte keuzes en de gebruikte gegevens en aannames volledig, tijdig en uit eigen beweging openbaar te maken ….’ teneinde te voorzien in een reële rechtsbescherming en toetsing van besluiten op rechtmatigheid. Deze uitspraak biedt ook een toetsingskader voor de beoordeling van andere geautomatiseerde besluitvormingsprocessen dan dat voor de PAS.

Vileine vraag
Politiek gezien is het zeker niet zo dat een wethouder van een willekeurige gemeente moet vrezen voor een vileine vraag van een gemeenteraadslid over een algoritme. De verkiezingsprogramma’s van politieke partijen reppen hier evenmin over. Dat neemt niet weg dat zich voorzichtig een kennisbasis vormt. Zo is er inmiddels een aantal onderzoeken uitgevoerd naar de werking van data en algoritmen. Een politiek belangrijk moment was de aanvaarding in de Eerste Kamer van de motie-Gerkens in september 2014. Deze droeg het kabinet op het Rathenau Instituut te vragen of een aparte adviescommissie voor ethische kwesties rondom technologie en data in een behoefte zou voorzien. Het Rathenau leverde begin 2017 een indrukwekkend rapport op, getiteld Opwaarderen. Haar belangrijkste conclusie: een commissie is niet nodig.

Overheid, bedrijfsleven en maatschappelijk middenveld moeten eerst zelf maar eens in actie komen. Voor het toezicht op algoritmen achtte het instituut evenmin een nieuwe toezichthouder of nieuwe wet- of regelgeving nodig. Volgens de onderzoekers kan de overheid nu al normerende kaders opstellen, bijvoorbeeld over de wijze waarop een softwareontwikkelaar verantwoording kan afleggen over de werking van complexe algoritmen.

Trage tempo
Het regeerakkoord van het kabinet Rutte- III deed er vervolgens het zwijgen toe. Maar in maart 2018 lag er dan toch een kabinetsstandpunt in reactie op onder andere het rapport Opwaarderen. Drieënhalf jaar na de motie. Een procesgang die de spanning laat zien tussen het trage tempo van onze democratie en de duizelingwekkende snelheid van de technologische innovaties. Want reken maar dat de algoritmen gedurende die drieënhalf jaar alleen maar slimmer zijn geworden. En dat kabinetsstandpunt? Dat is nog niet al te definitief. Het kabinet nam de aanbeveling over om géén adviescommissie in te stellen en zoekt de oplossingen in deze fase vooral in maatregelen zoals juridisch-wetenschappelijk onderzoek, een expertbijeenkomst, een adviesaanvraag, experimenten en dialogen. Zij houdt de mogelijkheid van nieuwe of aanpassing van bestaande wetgeving nadrukkelijk open.

Opvallend in zowel het rapport Opwaarderen als in het kabinetsstandpunt is de geringe aandacht voor decentrale overheden. Terwijl in het licht van de smart cities met name bij gemeenten ruimte is om concreet aan de slag te gaan. Daarvoor hoeven de maatregelen van het kabinet niet te worden afgewacht. We zien nu al initiatieven voor ethische verklaringen. Zoals Tada! duidelijk over data (https://tada.city/). Hiermee scharen bedrijven, overheden, maatschappelijke organisaties en burgers zich achter een aantal gezamenlijke principes voor een verantwoorde digitale stad. Eén van die principes is menselijke maat: “Data en algoritmen hebben niet het laatste woord. Menselijkheid gaat altijd voor. We laten ruimte voor onvoorspelbaarheid”. Dat laatste woord, onvoorspelbaarheid, biedt een tegendraadse kijk op dit vraagstuk. Zelfs als het computer says no heeft geklonken zou een bestuursorgaan de mogelijkheid open moeten houden om toch een vergunning te verstrekken.

Het nieuwe gemeentebestuur van Amsterdam heeft in haar coalitieakkoord de principes van Tada omarmd. Er is nog een andere route om de algoritmen te lijf te gaan: via de accountancy. Sander Klous en Nart Wielaard hebben hier op gewezen in hun recente boek Vertrouwen in de slimme samenleving. Een accountant bedenkt vooraf waar de grootste kansen op fouten in de jaarrekening liggen en stemt daar zijn controle op af. Volgens de auteurs leent deze denkrichting zich uitstekend voor controle op algoritmen. Centraal staat het risico dat een algoritme een verkeerde beslissing neemt. Gemeenten, andere bestuursorganen en accountants kunnen deze handschoen oppakken. Mogelijk dat daarvoor bij de beroepsgroep zelf ook nog wel wat water door de Rijn moet stromen.

Black box
Algoritmen zijn dus rekenmethoden, instructies die de computer volgt om een probleem op te lossen of een doel te bereiken. Algoritmen kunnen meer of minder ingewikkeld zijn. Een eenvoudig algoritme bestaat bijvoorbeeld uit de stappen die je moet zetten om een lekke band te plakken. Te beginnen met het controleren of er in de buitenband geen schadelijke deeltjes zijn achtergebleven en te eindigen met, zodra de gerepareerde binnen- en buitenband weer over de velg zijn geplaatst, het terugplaatsen van het ventieldopje. Maar algoritmen staan niet stil. Zij worden steeds slimmer.

Die ontwikkeling wordt mogelijk gemaakt door het kennisveld van de kunstmatige intelligentie en meer in het bijzonder door de machine learning en de deep learning. Waar machine learning de software slimmer maakt door analyse van data en door programmeren, legt die software bij deep learning zelf verbanden. Dat gebeurt met gebruikmaking van zogeheten neurale netwerken, eenvoudige processoren die onderling zeer sterk verbonden zijn. Als die architectuur eenmaal goed werkt ontstaat een ongekende versnelling van de rekenkracht. Daar komen geen menselijke instructies meer bij kijken. Niemand begrijpt dan nog hoe een algoritme tot de oplossing van een probleem komt. Zelfs de beste nerds van de klas niet. Algoritmen vormen dan een heuse black box, zij gaan met de mens aan de haal.

Job Cohen, voormalig burgemeester van Amsterdam, verzuchtte ooit tijdens een verhoor in het kader van de raadsenquête over de overschrijdingen bij de aanleg van de Noord-Zuid-lijn: “Als bestuurders zijn we allemaal amateurs”. Cohen was van mening dat bestuurders moesten varen op adviezen van deskundigen, bijvoorbeeld de bouwkundig ingenieurs. Volgens dit onderscheid zijn er ten minste nog professionals die een bepaalde ingewikkelde materie begrijpen en doorgronden. Maar bij complexe algoritmen is iedereen amateur. Het onderscheid tussen ondeskundige bestuurder en expert-professional verdampt. Dat roept de vraag op of algoritmen op termijn überhaupt nog te temmen zijn. Kunnen nieuwe wetgeving, een ethische of een accountantsverklaring in het licht van de verder voortschrijdende technologische innovaties in de toekomst nog wel serieuze checks and balances vormen?

Wat moet er dan gebeuren? Het recept is eenvoudig: elk bestuursorgaan heeft twee opties. Deze opties representeren het democratisch dilemma. De eerste is: experimenteren met een accountantsverklaring of een ethisch programma, trial and error, desnoods tegen de klippen op. De tweede optie luidt: berusten, niets doen. Onder ogen zien dat we zo langzamerhand op een moment in onze geschiedenis zijn beland dat de technologie ons de baas wordt. Dat controle op neurale netwerken te complex is geworden en dat de voor d emocratie noodzakelijke checks and balances steeds meer een schijnvertoning vormen. Dat het toekomstbeeld van Harari weer een stapje dichterbij komt. Vrij naar de Fransen kan de tweede optie omschreven worden als: La démocratie, c’est mourir un peu!

Paul Strijp
Sectormanager bestuur en strategie van de provincie Noord-Holland. Hij werkte eerder bij de ministeries van VWS en financiën en de gemeenten Delft en Amsterdam. Dit essay schreef hij op persoonlijke titel.

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Advertentie