Besluit ChatGPT over jouw rechten? Gemeente heeft geen idee
Ondanks waarschuwingen van de toezichthouder blijven gemeenten ChatGPT inzetten. Intern toezicht en inzicht in het gebruik ontbreken.
‘De overheid is blind geweest voor het feit dat achter elk (persoons)gegeven een mens schuilgaat’. Dat zegt de enquêtecommissie fraudebeleid in haar rapport Blind voor mens en recht. De commissie deelt een indringende waarschuwing uit aan bestuurders en ambtenaren. ‘Waarborgen voor het uitwisselen, gebruiken en koppelen van gegevens zijn ook waarborgen voor mensen’.
Toch maakt driekwart van de gemeenten gebruik van ChatGPT, dat vanwege privacygebreken binnen de Rijksoverheid verboden is. Over wat ambtenaren precies doen met de chatbot, hebben gemeenten nog altijd geen idee, blijkt uit beantwoordingen van raadsvragen over ChatGPT. ‘We hebben geen inzicht in wie in onze organisatie gebruikmaken van generatieve AI en in welke mate dit gebeurt’, meldt het college van Soest. ‘Er is momenteel nog geen beleid’, zegt Almelo, ‘Het streven is om in 2024 interne richtlijnen op te stellen’.
Individuele burgers
Colleges halen vaak eenvoudige voorbeelden aan voor het gebruik van ChatGPT. Het herschrijven van teksten in toegankelijke taal, of het vertalen van een artikel. Maar volgens Willeke Slingerland, lector Weerbare Democratie aan de Hogeschool Saxion, gaat het gebruik veel verder. Ambtenaren zouden ChatGPT niet alleen inzetten voor generieke vragen of het schrijven van informatieve teksten op basis van openbare gegevens, maar ook in zaken die over individuele burgers gaan, zoals in bezwaarprocedures.
De waarneming van Slingerland sluit aan bij een eerder standpunt van de VNG, die ChatGPT zou willen inzetten voor het ‘versnellen’ van bezwaarprocedures. Hoe vaak dit in de praktijk voorkomt, is onduidelijk. Niet elke gemeente houdt toezicht op het gebruik van ChatGPT en andere systemen. Ambtenaren ‘hebben de vrijheid om systemen als ChatGPT te verkennen’, zegt het college van Lisse in antwoord op raadsvragen. ‘Hier wordt geen toezicht op gehouden’.
‘Het is onwaarschijnlijk dat ChatGPT kan worden ingezet zonder het serieuze risico dat mensenrechten worden geschonden’
Het College voor de Rechten van de Mens vindt het gebruik van ChatGPT door gemeenten riskant. Het programma lijkt ‘enorm slim’, zegt een woordvoerder, maar het werkt op basis van voorspellingen over taal en niet op basis van ‘inhoudelijke kennis’. Door intrinsieke vooroordelen en een gebrek aan transparantie over de verwerking van gegevens, liggen discriminatie en privacyschendingen op de loer. Volgens het College is het ‘onwaarschijnlijk dat ChatGPT kan worden ingezet voor besluitvorming door overheden zonder het serieuze risico dat mensenrechten worden geschonden’.
Eerlijk proces
Of het gebruik van ChatGPT in bezwaarprocedures mag volgens de wet, is de vraag. Naast de onvermijdelijke vraag of de privacy van burgers wel gewaarborgd is, zijn er ook andere risico’s bij het gebruik van ChatGPT voor afhandeling van bezwaren. De AVG verbiedt overheden in principe om besluiten te nemen die uitsluitend gebaseerd zijn op ‘geautomatiseerde verwerking’. Of, zoals de Autoriteit Persoonsgegevens het zegt: ‘mensen hebben recht op een menselijke blik bij besluiten’.
Promovenda Sarah de Heer (Universiteit van Lund) waarschuwde al voor de opkomst van ChatGPT voor de risico’s van geautomatiseerde besluitvorming voor de rechten van burgers. Volgens De Heer loopt het grondrecht op een eerlijk proces gevaar als overheden algoritmes en geautomatiseerde systemen inzetten bij de besluitvorming. Het gebrek aan transparantie over hoe systemen als ChatGPT informatie afwegen en tot hun output komen, maakt dat burgers en rechters in het duister tasten over hoe belangrijke beslissingen over hun rechten tot stand komen.
Discriminatie
De Autoriteit Persoonsgegevens maakt zich volgens een woordvoerder zorgen over de omgang met persoonsgegevens door organisaties die ChatGPT gebruiken. Er mogen geen ‘volledig geautomatiseerde beslissingen’ over mensen worden genomen, zegt de toezichthouder. Net als het College voor de Rechten van de Mens vreest de AP voor discriminatoire effecten: ‘AI kan vooroordelen bevestigen en discriminatie in de hand werken’.
‘Transparantie is een recht. Dat maakt dat organisaties die met generatieve AI aan de slag willen, zich goed af moeten vragen welke risico’s ze lopen’
De aanpak van gemeenten als Soest en Lisse, die geen idee hebben of en hoe ambtenaren ChatGPT gebruiken en vinden dat zij daar ‘vrij’ in zijn, kan op afkeuring van de toezichthouder rekenen. ‘Transparantie is een recht. Dat maakt dat organisaties die met generatieve AI aan de slag willen, zich goed af moeten vragen welke risico’s ze lopen. Is het voor betrokkenen duidelijk dat persoonsgegevens worden verwerkt, waarom, hoe en door wie? En wat is de betrouwbaarheid van de gegenereerde informatie? Daar zijn grote vraagtekens bij te zetten’, zegt een woordvoerder.
Op Rijksniveau is het gebruik van ChatGPT in ieder geval voorlopig niet toegestaan, meldde staatssecretaris Alexandra van Huffelen in december. De VNG schreef in een reactie hierop: ‘voor gemeenten lijkt het waarschijnlijk dat zij juridische risico’s lopen wanneer zij niet-gecontracteerde generatieve AI-toepassingen gebruiken’. Ook de AP kan weinig begrip opbrengen voor het massale ChatGPT-enthousiasme bij gemeenten. Het gebruik blijft volgens de toezichthouder ‘mogelijk onrechtmatig’.
Plaats als eerste een reactie
U moet ingelogd zijn om een reactie te kunnen plaatsen.