Advertentie
digitaal / Nieuws

Algoritmeregister moet discriminatie helpen voorkomen

Momenteel staan er 109 algoritmes in het nieuwe register. Een daarvan is het Wmo-voorspelmodel van de gemeente Den Haag.

21 december 2022
kijken
Shutterstock

De overheid lanceert vandaag het nationaal Algoritmeregister om te zorgen voor transparantie en eerlijkheid over algoritmegebruik. Het is de bedoeling dat het helpt bij de controle van algoritmes op discriminatie en willekeur. Het is pas een eerste versie en moet nog verder worden ontwikkeld, vertelt staatssecretaris Van Huffelen (Digitalisering, D66). ‘Het komend jaar zal in overleg met overheden gewerkt worden aan een eenduidige registratie van algoritmes.’

Beleidsmedewerker Toerisme en Recreatie

JS Consultancy
Beleidsmedewerker Toerisme en Recreatie

Raadsadviseur / Plaatsvervangend Griffier

Gemeente Maashorst
Raadsadviseur / Plaatsvervangend Griffier

Risicovolle kunstmatige intelligentie

Momenteel staan er 109 algoritmes in het Algoritmeregister. Bij de uitbreiding zal worden gekeken naar een afbakening van wat er wel en niet in moet. ‘We zoeken naar een niet te smalle van definitie van de algoritmen, op basis van de Artificial Intelligence Act’, legt de staatssecretaris uit. Deze AI Act is wetgeving die nu bij de Europese Commissie en het Europees Parlement ligt en zich uitspreekt over risicovolle kunstmatige intelligentie.

Doel en impact

Overheden moeten voor de bruikbaarheid van het register de algoritmes op eenzelfde wijze beschrijven. Voor die eenduidigheid is een metastandaard ontwikkeld, schrijft Van Huffelen aan de Tweede Kamer. ‘Het gaat dan bijvoorbeeld over het doel en de impact van het algoritme, en of er een risicoanalyse is uitgevoerd voorafgaande aan de ingebruikname.’ Maar ook voor Data protection impact assessments (DPIA’s) en eventuele mensenrechtentoetsen zijn velden waarop mensen kunnen doorklikken.

Wmo-voorspelmodel Den Haag

Een van de algoritmes die bijvoorbeeld al in het register staat is het Wmo-voorspelmodel van de gemeente Den Haag. Over het risico valt onder meer te lezen: 'Omdat het voorspelmodel geen uitspraken doet over individuele personen maar over het gebruik van voorzieningen in wijken, was er geen risico dat met de uitkomsten uit het model de privacy van specifieke individuele personen zou kunnen worden geschonden.' Over de proportionaliteit: ‘Er zijn geen alternatieven overwogen om het doel te bereiken.’ En over de wettelijke grondslag: ‘Er is geen wettelijke grondslag voor het voorspelmodel, maar de gemeente is verantwoordelijk voor de uitvoering van de Wmo en door het model kan de gemeente beter anticiperen op verwachte ontwikkelingen en burgers beter ondersteunen.’

Verplicht aanleveren

‘Het is sowieso nog niet compleet’, zegt Van Huffelen. Doorontwikkeling is volgens de staatssecretaris beslist nodig. Meer overheidsorganisaties moeten hun algoritmes aanleveren – nu is dat vrijwillig, maar zodra de Europese wetgeving er is, wordt het een verplichting. ‘En we willen kijken met gebruikers als ngo’s, onderzoekers, journalisten en overheidsorganisaties hoe het nog beter en toegankelijker te maken is. Natuurlijk gaan we ook kijken met de Autoriteit Persoonsgegevens, de algoritmetoezichthouder, of dit voor hen voldoende informatie biedt om aan de slag te gaan.’

Transparantie schiet nog tekort

‘Zoals vastgelegd in het coalitieakkoord wil het kabinet dat algoritmes wettelijk worden gecontroleerd op discriminatie en willekeur’, schrijft Van Huffelen aan de Kamer. ‘Tot nu toe schiet de transparantie over de inzet van algoritmes door de overheid nog vaak tekort.’ Op basis van het register moeten betrokkenen kritische vragen kunnen stellen. ‘Het algoritmeregister kan een belangrijke bijdrage leveren aan het beter uitlegbaar maken van de toepassing en uitkomst van algoritmes.’

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Advertentie