Mensenrechtentoets verplicht voor nieuwe algoritmes
Het Implementatiekader voor de Inzet van Algoritmen (IKA) moet overheden helpen bij het voldoen aan normen voor de inzet van algoritmes.
Een hulpmiddel om algoritmes die mogelijk een risico vormen te toetsen, maar geen checklist. Zo typeert demissionair staatssecretaris Alexandra van Huffelen het Implementatiekader voor de Inzet van Algoritmen (IKA). Het implementatiekader biedt een overzicht van de belangrijkste normen en maatregelen waaraan voldaan moet worden. Het brengt ook in kaart welke normen en maatregelen niet verplicht zijn maar wel belangrijk voor het waarborgen van publieke waarden.
Verkeerd gebruik van algoritmes voorkomen
Gebruik van het implementatiekader door overheden moet voorkomen dat algoritmes of complexere AI wordt ingezet in de verkeerde context, op de verkeerde manier of met het verkeerde doel, zoals regelmatig is gebeurd. Uit diverse onderzoeken blijkt dat problemen met de inzet van algoritmes door de overheid vooral werden veroorzaakt doordat vooraf aan het ontwikkelproces geen duidelijke criteria werden gesteld waaraan de algoritmes moesten voldoen, controle en toetsing van ontwerpkeuzes te laat plaatsvond en controlemechanismen onvoldoende functioneerden. Dat schrijft Van Huffelen in een brief aan de Kamer.
Ethische Richtsnoeren
Voor het IKA is geput uit de Ethische Richtsnoeren van de high-level expert group on artificial intelligence van de Europese Commissie. Het implementatiekader biedt een overzicht van belangrijke onderliggende normen en maatregelen aan de hand van zeven onderwerpen die ook centraal staan in de AI Act, namelijk menselijke controle en menselijk toezicht; technische robuustheid; privacy en datagovernance, transparantie; diversiteit, non-discriminatie en rechtvaardigheid; milieu- en maatschappelijke waarden.
Alle kaders op één plek
Er zijn al veel kaders en instrumenten beschikbaar om algoritmes te toetsen. Met het IKA hoopt de overheid de belangrijkste te stroomlijnen en op één plek te zetten. Zo sluit het IKA aan op het normenkader dat de Auditdienst Rijk in 2022 heeft opgesteld en het toetsingskader algoritmen van de Algemene Rekenkamer.
Mensenrechtentoets verplicht
Ook het uitvoeren van een mensenrechtentoets (het Impact Assessment Mensenrechten en Algoritmes of IAMA) is in het IKA opgenomen. Eerder vroeg de Kamer om een mensenrechtentoets te verplichten voordat een AI of algoritmisch systeem in gebruik wordt genomen. Naar verwachting maakt die verplichting straks al deel uit van de AI Act, maar in afwachting daarvan stelt Van Huffelen een IAMA verplicht voor alle nieuw te ontwikkelen risico algoritmes.
Het implementatiekader zal worden geactualiseerd en uitgebreid als daar aanleiding toe is. Een nieuwe versie, uitgebreid met best practices en tools, zal in het eerste kwartaal van 2024 af zijn.
Visie op generatieve AI
In de brief gaat Van Huffelen ook in op een aantal andere zaken die spelen rondom de inzet van algoritmes door de overheid, zoals de voorgenomen kabinetsvisie op generatieve AI. De visie moet voor het eind van dit jaar klaar zijn en wordt geschreven in overleg met verschillende ministeries, sectoren en overheden. Een voorbehoud is dat de Kamer nog moet stemmen over de lijst met controversiële onderwerpen voor het demissionair kabinet. Dat gebeurt naar verwachting op 27 juli.
Nog geen verplichte registratie
Het verplicht registreren van AI en algoritmes in het nationaal algoritmeregister, zoals de Kamer heeft gevraagd, doet Van Huffelen niet, omdat nog niet in detail duidelijk is wat de AI Act hierover voorschrijft. Ze wil voorkomen dat uitvoeringsorganisaties worden geconfronteerd met steeds andere verplichtingen.
Reactie op petitie
In reactie op de petitie ‘Control AI’ schrijft de demissionair staatssecretaris dat ze de zorgen van de ondertekenaars erkent en dat Nederland al van alles doet om controle op AI te krijgen, zowel in nationaal als in internationaal verband.
In de petitie staat onder meer dat duidelijk moet zijn wanneer een uiting met behulp van AI tot stand is gekomen, of wanneer een mens communiceert met AI. ‘Ik ga onderzoeken hoe geregeld kan worden dat bij een besluit altijd wordt aangegeven of dit is gebaseerd op een algoritme of risicoprofilering,’ belooft Van Huffelen in de brief. Ze betrekt daarbij onder meer de recente oproep van het College voor de Rechten van de mens voor een wettelijke transparantieverplichting bij het gebruik van algoritmes door de overheid.
Reacties: 2
U moet ingelogd zijn om een reactie te kunnen plaatsen.