juridisch / Partnerbijdrage

AI: De weg naar een efficiënte overheid?

Verantwoord gebruik van AI in de publieke sector.

20 mei 2024
Legal innovation eiffel

In de snel digitaliserende wereld van vandaag staat de publieke sector voor talloze uitdagingen. Complexe maatschappelijke vraagstukken, groeiende administratieve lasten en een toenemende druk op de arbeidsmarkt zorgen voor een steeds grotere belasting van publieke instanties. Kan kunstmatige intelligentie (AI) een oplossing bieden voor deze uitdagingen?

Veel mensen zien AI inderdaad als een van de meest veelbelovende oplossingen, maar is de hype terecht? Het korte antwoord is ja. Artificiële intelligentie maakt het namelijk mogelijk om repetitieve taken te automatiseren en efficiëntie te verhogen. Door de juiste AI-systemen te implementeren kunnen overheidsinstanties zich bevrijden van tijdrovende en routinematige taken, waardoor kostbare middelen en tijd vrijkomen. Die kunnen vervolgens ingezet worden voor meer complexe en waardevolle opdrachten.

Maar het gebruik van AI-systemen brengt risico’s met zich mee. Het is dan ook niet zonder reden dat het kabinet in het visiedocument waarschuwt voor de gevaren van (generatieve) AI en daarin het gebruik van niet-gecontracteerde AI-toepassingen door ambtenaren in beginsel verbiedt.[1] Ook in VNG Magazine van 22 maart 2024 wordt het gevaar van generatieve AI benoemd. Hij bespreekt het bekendste voorbeeld: ChatGPT. [2] ChatGPT wordt namelijk in toenemende mate ingezet door ambtenaren in gemeenten om teksten te verbeteren, informatie te zoeken en inspiratie op te doen. [3] Hoewel deze technologie veelbelovend lijkt voor een efficiëntere overheid, brengt het gebruik ervan aanzienlijke risico's met zich mee. Het gebrek aan waarheidsgetrouwheid, de aanwezigheid van vooroordelen in de onderliggende data en de onzekere privacybescherming vormen serieuze zorgen.

De vraag is dan ook: hoe zet je AI-systemen in met zo min mogelijk risico's? Er is vandaag de dag al meer verantwoordelijk AI gebruik mogelijk dan vaak wordt gedacht. Dit komt doordat niet alle vormen van AI hetzelfde zijn en dus ook niet dezelfde risico’s met zich meebrengen. In dit artikel worden twee bekende vormen van AI (rule based en learning based) besproken om te laten zien hoe AI-systemen verantwoord gebruikt kunnen worden en hoe dit leidt tot een efficiëntere overheid.

Rule based / learning based AI

Twee veelvoorkomende vormen van AI zijn rule based AI en learning based AI. Beide vormen verschillen aanzienlijk in werking en daarbij horende risico’s.

Rule based AI
Rule based AI, ook bekend als geavanceerde beslisbomen of expertsystemen, werkt met vooraf bepaalde regels en logica, vastgesteld door mensen. Deze regels worden meestal opgesteld in de vorm van ‘als, dan’-verklaringen. Hierbij onderneemt AI bepaalde acties op basis van specifieke voorwaarden.

Bijvoorbeeld: "Als bezwaarschrift na indieningstermijn is ingediend, dan is deze niet-ontvankelijk."

Rule based AI gebruikt dus expliciete regels en logica om tot beslissingen te komen. Een rule based AI-systeem kan, zoals in het voorbeeld hierboven, gebruikt worden in de bezwaarprocedure. Het bezwaar kan door het rule based AI-systeem alvast gedeeltelijk op kansrijkheid worden beoordeeld aan de hand van vooraf bepaalde regels en logica. Het rule based AI-systeem wordt gebruikt om te bepalen of een ingediend bezwaar voldoet aan de vastgestelde criteria en of er sprake is van situaties waarin het bezwaar zonder twijfel ongegrond kan zijn. Het systeem ondersteunt een ambtenaar bij het nemen van beslissingen, maar de menselijke beoordeling blijft doorslaggevend. Bij rule based AI is altijd sprake van menselijke tussenkomst (human in the loop).

Learning based AI
Learning based AI, ook wel machine learning genoemd, maakt gebruik van algoritmen die kunnen leren van data, ervaringen en feedback. Deze AI-algoritmen worden getraind met behulp van grote hoeveelheden gegevens om patronen en trends te ontdekken en voorspellingen te doen. Het bekendste voorbeeld hiervan is ChatGPT, Large Language Model (LLM).

Een Large Language Model is een type van learning based kunstmatige intelligentie dat is getraind om natuurlijke taal te begrijpen en te genereren op een grotere schaal vergeleken met eerdere modellen. Deze LLM’s kunnen enorme hoeveelheden tekst verwerken en leren van de patronen en structuren in de tekst om vervolgens taken uit te voeren zoals vertalen, samenvatten, vragen beantwoorden, context begrijpen en zelfs het genereren van nieuwe tekst.

LLM’s (zoals GPT-3.5/4) hebben hiermee de potentie om in de toekomst een grote rol te spelen in de juridische sector. Deze modellen kunnen bijvoorbeeld juridisch onderzoek verrichten en (simpele) juridische documenten en adviezen opstellen.

In tegenstelling tot rule based AI is learning based AI in staat om zelfstandig te leren en zich aan te passen aan nieuwe situaties zonder expliciete programmering van regels. Hoewel learning based AI krachtige voorspellende mogelijkheden biedt, is het belangrijk om te noemen dat het niet immuun is voor onjuiste gegevens of voorspellingen. Om die reden maken mensen zich zorgen over learning based AI. De kabinetsvisie gaat dan ook over deze vorm van AI. [4]

Kies de juiste vorm van AI in de publieke sector

Binnen de publieke sector is learning based AI voornamelijk geschikt voor taken met een laag risico en een hoog volume. Deze vorm van AI kan de werklast van ambtenaren namelijk verminderen door repetitieve taken te automatiseren. Dit wordt onderschreven in overheidsbrede visie met betrekking tot generatieve AI:

‘Ook de overheid kan profiteren van generatieve AI als productietool. Het biedt overheden kansen om processen te verbeteren, het algemeen functioneren van de overheid te verbeteren en de dienstverlening aan burgers te optimaliseren. Bijvoorbeeld door bij te dragen aan het beter bereiken van de inwoner. Een andere mogelijkheid waar generatieve AI zich voor leent is het toegankelijker maken van overheidsinformatie voor iedereen, door in aanpassingen van het taalniveau te voorzien. Op deze manier kan de technologie een bijdrage leveren aan heldere en inclusieve communicatie met burgers. Tevens zou generatieve AI de efficiëntie van juridische en administratieve processen kunnen verhogen door het (deels) automatiseren van formulieren, zoals bij ‘Legal Tech’, waardoor er ruimte overblijft voor maatwerk. Voorwaarde hiervoor is wel dat de technologie ethisch verantwoord en goed gereguleerd wordt ingezet.’ [5]

Learning based AI biedt enorme kansen en mogelijkheden, maar het moet wel ethisch verantwoord en gereguleerd worden ingezet. In tegenstelling tot learning based AI-systemen, is het inzetten van rule based AI-systemen verantwoord. Dit komt door de transparantie, interpreteerbaarheid en controleerbaarheid van deze systemen. Hierdoor kunnen gebruikers, inclusief juridische professionals en burgers, de uitkomsten vertrouwen en begrijpen hoe deze tot stand zijn gekomen.

Dankzij deze transparantie, interpreteerbaarheid en controleerbaarheid kunnen rule based AI-systemen effectief worden ingezet om burgers laagdrempelig te informeren over complexe juridische onderwerpen. Het kan de burger bijvoorbeeld helpen bij het inschatten van de kans (kansarm of kansrijk) van slagen bij het maken van bezwaar. Hiermee kan ook voorkomen worden dat kansloze bezwaren worden ingediend.

Hoe kies je de juiste vorm van een AI-systeem?

Learning based AI ontwikkelt op razend tempo en dat betekent dat de mogelijkheden groeien. Desondanks zijn er nog belangrijke uitdagingen en overwegingen waarmee rekening moet worden gehouden. Denk aan de eerder genoemde privacykwesties, vooroordelen in de data en de betrouwbaarheid van AI-systemen.

Het gebruik van AI is nooit helemaal zonder risico’s, maar het helemaal niet gebruiken van AI leidt tot het mislopen van waardevolle kansen en een efficiëntere en betere dienstverlening. De publieke dienstverlening moet tenslotte toegankelijk en beschikbaar blijven voor alle burgers, AI kan hierbij een belangrijke rol spelen. Het stelt de overheid namelijk in staat om efficiënter te opereren en diensten aan te bieden, mits het verantwoord wordt ingezet.

Voor verantwoord gebruik moeten per geval de risico’s duidelijk zijn. Daarnaast is het belangrijk om te weten waar learning based AI kan worden toegepast en wanneer - indien geschikter – uitgeweken wordt naar rule based AI.

EIFFEL beschikt over gecertificeerde AI-compliance officers (CAICO). Zij adviseren bij het verantwoord inzetten van AI, ook gelet op de aankomende AI-verordening. Met een team van vakkundige juristen die vertrouwd zijn en ervaring hebben met AI-technologie, ondersteunt EIFFEL bij het implementeren van diverse AI (rule of learning based)-oplossingen binnen uw organisatie.

Auteur: Sander van der Zalm | Legal Professional Legal Innovation bij EIFFEL

[1] Overheidsbrede visie Generatieve AI (versie januari 2024).
[2] ChatGPT - Gevaarlijk generatief | VNG.
[3] Dit ondanks het verbod op niet-gecontracteerde AI-toepassingen uit de overheidsbrede visie generatieve AI.
[4] Generatieve AI is een (geavanceerde) vorm van learning based AI.
[5] Overheidsbrede visie Generatieve AI, p.10 (versie januari 2024).

Meer informatie

Ben je klaar om samen met ons de volgende stap te zetten richting een efficiënte overheid die voor iedereen werkt? Neem dan gerust contact op met Thirza van Haaften, Business Manager EIFFEL.

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.