Advertentie
digitaal / Nieuws

‘Neem transparantieverplichting algoritmes op in wet’

Als het aan het College voor de Rechten van de Mens ligt, wordt transparantie over algoritmegebruik een wettelijke verplichting.

04 juli 2023
Algoritmes-shutterstock-1844599963.jpg

Het College voor de Rechten van de Mens pleit voor een wettelijke verplichting voor overheden om transparant te zijn over algoritmegebruik bij besluiten die burgers rechtstreeks raken. Volgens het College weegt transparantie zwaarder dan het intellectueel eigendom van algoritmeontwikkelaars. Alleen voor fraudeopsporing is het soms niet nodig om álle technische details uit de doeken te doen.

Electronics Engineer ADAS: Drive Innovation in Advanced Driver-Assistance Systems at our client

Yacht
Electronics Engineer ADAS: Drive Innovation in Advanced Driver-Assistance Systems at our client

Communicatieadviseur

Yacht
Communicatieadviseur

Discriminatie lastig te bewijzen

Ben je gediscrimineerd door een algoritme van de overheid? Dat is lastig te bewijzen, want vaak weten mensen helemaal niet of er een algoritme is gebruikt in een beschikking (een overheidsbesluit dat is gericht op een individuele burger). Als ze het wel weten, tasten ze vaak in het duister over hoe het is gebruikt. Bewijs dan maar eens dat de overheid tot de beslissing is gekomen op basis van persoonskenmerken die er niet toe zouden moeten doen.

Probleem voor rechtsbescherming

Eigenlijk strookt dat niet met de wet. Volgens de Algemene wet bestuursrecht (Awb) moeten overheidsbesluiten gebaseerd zijn op een ‘draagkrachtige en kenbare motivering’ (artikel 3:46 en 3:47). ‘Draagkrachtig’ betekent dat er een logisch redenering achter het besluit moet zitten en dat die redenering geen gaten vertoont. ‘Kenbaar’ wil zeggen dat de motivering te begrijpen moet zijn voor degene op wie het besluit betrekking heeft. Algoritmegebruik dat niet wordt gemeld door de overheid levert dus een probleem op voor de rechtsbescherming, omdat overheidsbesluiten daarmee niet aan deze vereisten voldoen.

Transparantie algoritmes opnemen in AwB

In een position paper pleit het College voor de Rechten van de Mens ervoor om transparantie over algoritmegebruik expliciet in de Awb op te nemen. Algoritmegebruik voor een beschikking moet altijd worden gemeld, stelt het College voor. In iedere beschikking moet niet alleen staan om welke algoritmes het gaat, er moet ook in begrijpelijke taal worden uitgelegd hoe het algoritmegebruik uitwerkte op de beslissing.

Broncode in algoritmeregister

De broncode van algoritme hoeft niet in de beschikking te worden opgenomen, want de gemiddelde burger schiet niet veel op met pagina’s vol code. Wel moet de broncode terug te vinden zijn in het algoritmeregister. Dat is nu niet altijd het geval. Van een deel van de 123 gepubliceerde algoritmes in het algoritmeregister is alleen een algemene beschrijving beschikbaar. Een reden daarvoor kan zijn dat de leverancier van het algoritme zich baseert op zijn intellectuele eigendomsrecht. Er kan in een contract zijn vastgelegd dat het algoritme afgeschermd blijft.

Open source-verplichting

Wat het College betreft, is transparantie belangrijker dan intellectueel eigendom en zou er een open source-verplichting moeten komen voor overheidsalgoritmes. Uit de position paper: ‘Transparantie moet een ontwerpprincipe zijn (‘transparency by design’) van ieder algoritme binnen de overheid. Ontwikkelaars zijn op hun beurt vrij om al dan niet onder die voorwaarde voor de overheid te werken.’

Transparantie moet een ontwerpprincipe zijn van ieder algoritme binnen de overheid.

Uitzondering voor risicoselectie-algoritmes

Een uitzondering zou voor het College hooguit kunnen bestaan voor algoritmes die worden gebruikt om fraude op te sporen, zogeheten risicoselectie-algoritmes. Het openbaar maken van een dergelijk algoritme kan leiden tot misbruik, is de gedachte. ‘Denk hierbij aan de prikkel die mogelijk uitgaat van openbaarheid van een algoritme dat is ingesteld om onder een bepaalde drempelwaarde aftrekposten niet te controleren,’ schrijft het College.

Een externe toezichthouder zou dergelijke algoritmes onafhankelijk moeten goedkeuren voor gebruik, vindt het College. ‘Totdat autorisatie heeft plaatsgevonden mogen opsporingsalgoritmes met geheime elementen niet in gebruik genomen worden. Omdat de keuze voor dit soort elementen in algoritmes dynamisch kan zijn, moet ook de mogelijkheid worden ingebouwd deze algoritmes aan periodieke herkeuring te onderwerpen.’

Voorbij de werkagenda

Met de Werkagenda Waardengedreven Digitaliseren werkt staatssecretaris digitalisering Alexandra van Huffelen aan meer transparantie over algoritmegebruik. Het voorstel van het College is een concrete invulling van dit voornemen en gaat op een aantal punten verder dan de werkagenda, zoals met de verankering van algoritmische transparantie in de wet en de open source-verplichting.

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Advertentie