Advertentie
digitaal / Nieuws

Fraude-algoritme ziet jonge moeders en anderstaligen als risico

Hoogste risicoscores voor de meest kwetsbare groepen bijstandsontvangers in Rotterdam.

06 maart 2023
Jonge vrouw bankpas
Shutterstock

Jonge moeders en mensen die slecht Nederlands spreken zijn de hoogste risicogroepen als het gaat om fraude met bijstandsuitkeringen. Althans, volgens een algoritme waarmee de gemeente Rotterdam jarenlang bijstandsfraude voorspelde. Dat blijkt uit onderzoek van Lighthouse Reports, Argos, Vers Beton en Follow the Money.

Adviseur Ruimtelijke Economie | Publieke sector | Landelijk

BMC
Adviseur Ruimtelijke Economie | Publieke sector | Landelijk

Adviseur Economie & Arbeidsmarkt | Publieke sector | Landelijk

BMC
Adviseur Economie & Arbeidsmarkt | Publieke sector | Landelijk

Selectie en controle

De journalistieke onderzoeksplatforms kregen het complete algoritme in handen middels een reeks beroepen op de Wet open overheid (Woo). Er zijn 30.000 Rotterdammers met een uitkering. Jaarlijks worden een paar honderd van hen onderzocht. Om hen te selecteren worden ze op 315 criteria beoordeeld, zoals persoonskenmerken, gezinssituatie en (mentale) gezondheidsproblemen. Die scores resulteren in een risicocijfer tussen de 1 en 10. De meest ‘riskante’ uitkeringsgerechtigden worden geselecteerd en gecontroleerd.

Kwetsbaren

De onderzoeksplatforms hebben het Rotterdamse algoritme –met de naam Analytics Uitkeringsfraude – na een serie Woo-verzoeken in handen gekregen. Voor het eerst brengen buitenstaanders zo in kaart hoe een geavanceerd datamodel van de overheid fraude voorspelt: welke gegevens over mensen erin gaan, hoe de computercode hiermee rekent en wie de hoogste risico-scores krijgen. Daaruit blijkt dat de meest kwetsbare groepen het meest onder de loep liggen: bijstandsgerechtigden die het Nederlands niet goed machtig zijn, jongeren, alleenstaande vrouwen met kinderen die uit een lange relatie komen en mensen met financiële problemen. 

Discriminatie

Het is niet de eerste keer dat er twijfels worden geuit over het gebruik van algoritmes met een voorspellend karakter in Rotterdam. In 2021 werd door de Rekenkamer Rotterdam ook al gewaarschuwd voor de ethische risico’s van dergelijke algoritmes. Door extra nadruk te leggen op criteria als taal en nationaliteit zouden deze kunnen leiden tot discriminatie. Uit voorzorg werd het systeem eind 2021 stilgelegd.

Taalvariabelen

Maar ook in het door de journalisten onderzochte algoritme speelt taal nog steeds een belangrijke rol als voorspellend criterium voor bijstandsfraude. Er zijn zelfs twintig verschillende variabelen in het algoritme die tot taal te herleiden zijn, zoals spreektaal, schrijfvaardigheid en het al dan niet voldoen aan de taaleis voor de bijstand. ‘Als alle taalvariabelen zo worden ingesteld dat ze wijzen op een slechte Nederlandse taalvaardigheid, dan zorgt dit ervoor dat deze mensen ruim twee keer vaker in de hoogste risico-scores voorkomen dan personen die Nederlands als moedertaal hebben’, stellen de onderzoekers.   

Bron: Follow the Money

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Advertentie