‘Transparantie over algoritmen kan innovatie schaden’
Minister Dekker wil nog geen oordeel geven over de motie van D66, waarin de regering verzocht wordt om na te streven dat de overheid gebruikte algoritmen en analysemethoden openbaar maakt. In een reactie op de motie schrijft hij dat hij eerst resultaat van enkele bestaande werkgroepen op dit gebied wil afwachten. Ook noemt hij een aantal mogelijke keerzijdes genoemd voor het geven van transparantie en uitleg.
Minister Dekker wil nog geen oordeel geven over de motie van D66, waarin de regering verzocht wordt om na te streven dat de overheid gebruikte algoritmen en analysemethoden openbaar maakt. In een reactie op de motie schrijft hij dat hij eerst resultaat van enkele bestaande werkgroepen op dit gebied wil afwachten. Ook noemt hij een aantal mogelijke keerzijdes genoemd voor het geven van transparantie en uitleg.
Begin 2019 oordeel over motie
Momenteel is er onder meer een werkgroep bezig met een onderzoek naar mogelijke wettelijke kwaliteitswaarborgen rond het gebruik van Big Data door de overheid. Twee andere werkgroepen stellen momenteel richtlijnen op voor het inzichtelijk maken van algoritmes die de overheid gebruikt voor toezichthouders en de rechtspraak. ‘In het licht van deze trajecten acht ik het nu nog te vroeg om een oordeel over de motie te geven’, schrijft de minister hierover. De verwachting is dat er begin 2019 een oordeel geveld kan worden over de motie.
Behoefte aan transparantie afhankelijk van impact
De minister schrijft dat het van de specifieke behoefte afhangt, welke aspecten van een algoritme transparant gemaakt moeten worden. Naarmate de impact van de uitkomst van een algoritme groter is, zal de behoefte aan transparantie groter zijn. Transparantie kan inzicht bieden in de eerlijkheid van het algoritme. ‘Als in het verleden sprake is geweest van discriminatie en dit in de trainingsdata zit, kan het gevolg zijn dat het algoritme ook discrimineert.’
Mogelijke keerzijdes van openheid
Er zijn echter ook keerzijdes van een eventuele technische transparantie- of uitlegbaarheidseis voor algoritmes, redeneert de minister. Zo kan technische transparantie volgens Dekker ten koste gaan van innovatie. ‘Technische transparantie van het algoritme kan bedrijfsgeheimen schaden en het kan daardoor ten koste gaan van innovatie. Het vooruitzicht van exclusief bezit van een algoritme geeft namelijk een prikkel om te investeren in de ontwikkeling van algoritmes.’ Daarnaast kan transparantie over algoritmes ook privacy schaden. ‘Het transparant maken van de trainingsdata van algoritmes kan op gespannen voet staan met privacywetgeving. In sommige gevallen bestaan de trainingsdata namelijk uit persoonsgegevens. Dergelijke data kunnen geanonimiseerd en geaggregeerd transparant gemaakt worden. Dit beperkt echter de mate waarin transparantie het algoritme werkelijk uitlegbaar maakt.’
Beroepsfraudeurs in de kaart gespeeld
Technische transparantie en uitlegbaarheid kunnen daarbij de mogelijkheden voor derden vergroten om de uitkomsten van het algoritme ongewenst te beïnvloeden, vrees de minister. ‘Denk aan beroepsfraudeurs die zich met kennis van bepaalde drempelwaarden in een risicotaxatie-instrument dat door een overheidsdienst wordt gebruikt, aan toezicht en opsporing kunnen onttrekken.’
Lees hier de volledige brief van minister Dekker.
Reacties: 1
U moet ingelogd zijn om een reactie te kunnen plaatsen.