Advertentie
digitaal / Nieuws

'Of ik iets vraag aan ChatGPT of een stagiair maakt geen verschil'

Floor Kist en Maarten Koningsveld schreven een handboekje voor bestuurders in de publieke sector over de omgang met AI.

05 februari 2024
Maarten Koningsveld, Alexandra van Huffelen en Floor Kist met boekje
Koningsveld (links) en Kist bieden demissionair staatssecretaris Van Huffelen de gids aan

Met AI voor Bestuurders in de Publieke Sector schreven Floor Kist en Maarten Koningsveld een beknopte gids voor de omgang met kunstmatige intelligentie (AI).

Incidentmanager Defensie Bewakings- en Beveiligingssysteem (DBBS)

JS Consultancy
Incidentmanager Defensie Bewakings- en Beveiligingssysteem (DBBS)

Beleidsadviseur Beschermd Wonen

Gemeente Eindhoven
Beleidsadviseur Beschermd Wonen

Handzaam formaat

Bewust heeft het boekje een handzaam formaat. ‘Een bestuurder kan het onder de tafel openklappen als er iemand tegenover hem of haar een moeilijke vraag stelt over AI’, zegt onderzoeker en voormalig wethouder Floor Kist gekscherend. Iets serieuzer voegt politicoloog Maarten Koningsveld eraan toe: ‘Het idee is dat een bestuurder het boekje nog eens doorleest op de bank op de avond voordat hij een ingewikkeld gesprek heeft.’

Goed opdrachtgeverschap

De AI-gids van Kist en Koningsveld start met het belang van goed opdrachtgeverschap bij ict-projecten in het algemeen en AI-initiatieven in het bijzonder. Daarbij is vooral strategisch alignment relevant, benadrukken de twee: een AI-project staat niet op zichzelf, maar moet geïntegreerd zijn met de beleidsdoelen van de organisatie. ‘Je moet ontzettend goed weten welke doelen je met AI wil bereiken,’ zegt Kist. ‘Je kunt makkelijk verdwalen in de techniek en de technische taal, maar dan vergeet je de beleidsdoelen en maatschappelijke doelen, en dat is waar je als bestuurder voor bent.’ Als uitgangspunt voor het boek gebruiken ze daarom een taal die bestuurders door en door kennen: die van de algemene beginselen van behoorlijk bestuur. Van daaruit maken ze een vertaalslag naar de wereld van AI. 

Je moet ontzettend goed weten welke doelen je met AI wil bereiken.

Floor Kist

Politieke afwegingen

Waarom hebben bestuurders meer kennis nodig van AI? ‘Het risico van te weinig kennis is dat het onderwerp wordt gezien als niet-politiek, terwijl je met keuzes voor een digitaal systeem wel degelijk uiting kunt geven aan politieke afwegingen,’ zegt Koningsveld. ‘Als je niet inziet dat je dat doet, loop je het risico dat je uiteindelijk volgens de algemene beginselen van behoorlijk bestuur keuzes maakt die niet meer uitlegbaar of reproduceerbaar zijn. In principe is zelfs een besluit met een goede uitkomst dat niet goed overwogen is genomen theoretisch een slecht besluit.’

Motiveerbare resultaten

Kenmerkend voor zelflerende AI-modellen is dat mensen niet precies weten hoe het systeem tot een uitkomst komt. Keuzes gebaseerd op uitkomsten van systemen die werken op basis van die modellen zijn daarmee niet uitlegbaar of reproduceerbaar. Vallen dan niet vrijwel alle AI-systemen af die op ondoorzichtige wijze tot een beslissing komen?
‘Dat denk ik niet’, reageert Kist. ‘Neem ChatGPT. Dat is in wezen een slimme stagiair. Of ik nu een stagiair vraag om iets uit te zoeken of AI maakt voor mij inhoudelijk geen verschil. Als beleidsmaker moet ik beoordelen of het resultaat goed genoeg te motiveren is en of het in lijn is met de beleidsdoelen die ik nastreef.’

Klakkeloos overnemen

Het ware gevaar schuilt in het niet kunnen onderbouwen waarom een besluit tot stand is gekomen. En daarvoor is de tussenkomst van AI niet per se noodzakelijk, benadrukt Koningsveld. ‘Eén van de grote risico’s die we de afgelopen jaren hebben gezien, bijvoorbeeld in het Toeslagenschandaal, is dat er klakkeloos oordelen van een ander bestuursorgaan worden overgenomen zonder zelf nog de verantwoordelijkheid te nemen.’

In principe is zelfs een besluit met een goede uitkomst dat niet goed overwogen is genomen theoretisch een slecht besluit.

Maarten Koningsveld

Bewuste politieke keuze

De taak van een bestuurder is om breder te kijken dan naar het systeem alleen. Dat legt Kist graag uit aan de hand van SyRI, het Systeem Risico Indicatie dat door de rechter werd verboden. ‘Bestuurders weten dat SyRI iets verkeerd heeft gedaan en dat het iets te maken heeft met privacy. Onderdeel van het probleem met SyRI was inderdaad dat er veel informatie werd gebruikt om een groep burgers te monitoren. Maar de kritiek van de Verenigde Naties ging er met name om dat er een geavanceerde technologie werd ingezet om de zwakke mensen in de samenleving aan te pakken. Eenzelfde soort systeem om witteboordenfraude te bestrijden werd níet aangenomen door de Tweede Kamer. Dat is een bewuste keuze die wordt gemaakt vanuit een bepaald waardenkader. En dan speelt politieke verantwoordelijkheid ineens een veel grotere rol.’

Elke vier jaar?

Eén van de aanbevelingen uit de checklist die achter in het boekje is opgenomen, is om datasets regelmatig te updaten en algoritmes te herzien, om te voorkomen dat politieke keuzes uit het verleden na-ijlen in de modellen. Zou dat in een democratie dan elke vier jaar moeten gebeuren? Koningsveld lacht. ‘Dan ga je de bietenbrug op. Het beoordelen van een systeem is eigenlijk een continu proces, waarin je monitort of de data die je erin stopt nog steeds integer en doelmatig zijn. In sommige gevallen voer je om de vier jaar een evaluatie uit, in andere gevallen om de vier maanden of zelfs om de vier minuten.’

Lees het volledige artikel in Binnenlands Bestuur nr. 2 van deze week.

AI voor Bestuurders in de Publieke Sector. ­Verantwoordelijkheid en Opdrachtgeverschap. Floor Kist en Maarten Koningsveld.

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Advertentie