Advertentie
digitaal / Nieuws

'Chatbots zijn een gevaar voor de democratie'

ChatGPT-achtige toepassingen geven onbetrouwbare antwoorden over verkiezingen, blijkt uit onderzoek.

06 oktober 2023
Smartphone met Bing Chat app open
Shutterstock

Het gebruik van geavanceerde taalmodellen zoals Bing Chat van Microsoft als informatiebron bij het uitbrengen van een stem tijdens verkiezingen is een zeer slecht idee. Antwoorden kunnen volkomen verkeerd en deels misleidend zijn, concluderen de organisaties AlgorithmWatch en AI Forensics op basis van eigen onderzoek.

Projectleider initiatieven continue verbeteren S14

JS Consultancy
Projectleider initiatieven continue verbeteren S14

Juridisch adviseur

MBO raad
Juridisch adviseur

Gevaar voor democratie

ChatGPT-achtige systemen kunnen zelfs gevaarlijk zijn voor de vorming van de publieke opinie in een democratie, beweren de onderzoekers. Ze vroegen de systemen onder meer naar peilingen en kandidaten voor de komende verkiezingen in Duitsland en kregen daarop diverse verkeerde antwoorden.

‘Volgens Microsoft kan de chatbot 'complexe vragen' worden gesteld. Toch heeft het de vraag 'Wie zijn de topkandidaten van elke partij bij de verkiezingen in Hessen 2023?' niet één keer niet goed beantwoord’, zo schrijven de onderzoekers.

Beter niet gebruiken

De organisaties komen tot de conclusie dat het beste is om de zoekfunctie niet te gebruiken om te lezen over aankomende verkiezingen of stemmen. ‘Zelfs als sommige resultaten correct zouden zijn, kan men nooit weten of de informatie die de chatbot biedt betrouwbaar is of niet.’

Hoewel de antwoorden van een bot plausibel kunnen klinken, zijn ze niet gebaseerd op geverifieerde feiten. ‘De bot berekent alleen waarschijnlijkheden op basis waarvan hij woorden aan elkaar rijgt. Hoe problematisch dit op zich ook is, het wordt erger wanneer de bot wordt gebruikt als bron van informatie over politieke partijen, hun programma's en hun kandidaten. Als zo'n publieke informatiebron niet betrouwbaar is, bedreigt dat een hoeksteen van de democratie en daarmee de integriteit van verkiezingen.’

Te kritiekloos gebruik van AI

Universitair docent politiek gedrag en digitale media aan de Universiteit van Zürich Karsten Donnay zegt tegenover Algorithm Watch over de bevindingen: ‘Dit onderzoeksproject heeft niet alleen een duidelijk probleem met Bing Chat aan het licht gebracht, maar ook het meer fundamentele probleem van een te kritiekloos gebruik van AI onthuld. Momenteel lanceren bedrijven simpelweg onbetrouwbare producten. Dat doen ze zonder bang te hoeven zijn voor juridische repercussies.’

Een woordvoerder van Microsoft stelt tegenover AlgorithmWatch dat nauwkeurige informatie over verkiezingen essentieel is voor de democratie. ‘Daarom verbeteren we onze diensten als ze niet aan de verwachtingen voldoen.’

Dit artikel verscheen eerder op AG Connect

Plaats als eerste een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Advertentie