AP waarschuwt: chatbots geven vertekend stemadvies

ChatGPT, Mistral en Gemini zijn onbetrouwbaar als hulpje bij het bepalen van de voorkeur van een politieke partij, stelt de Autoriteit Persoonsgegevens. Steeds meer kiezers gebruiken AI-chatbots om te bepalen op welke partij zij gaan stemmen bij de Tweede Kamerverkiezingen van 29 oktober. Maar deze adviezen zijn onbetrouwbaar en duidelijk gekleurd. Dat blijkt uit onderzoek van de Autoriteit Persoonsgegevens (AP). De AP vergeleek ChatGPT, Gemini, Mistral en Grok met de online stemhulpen Kieskompas en StemWijzer. Uit het onderzoek, waarbij 21.000 stemadviezen met dertig stellingen werden gevraagd. blijkt dat de AI-chatbots opvallend vaak op dezelfde twee partijen uitkomen, ongeacht de vraag of opdracht van de gebruiker. In ruim 56 procent van de gevallen staat of de PVV bovenaan of GroenLinks-PvdA. Bij één chatbot is dat zelfs in meer dan 80 procent van de gevallen zo. Andere partijen, zoals D66, SP, VVD of PvdD, komen veel minder vaak als eerste keuze naar voren. Sommige partijen, zoals BBB, CDA, SGP of DENK, zelfs bijna nooit. Ook niet wanneer de input van de gebruiker precies overeenkomt met de standpunten van een van deze partijen. Sc “Chatbots zijn niet specifiek ontworpen om neutrale en transparante informatie over politieke partijen te geven, maar genereren antwoorden op basis van patronen in een grote hoeveelheid trainingsdata. De inzet van chatbots als stemhulp kan hierdoor zorgen.” Een verklaring voor deze enorme afwijking heeft de toezichthouder niet. De AP roept aanbieders van AI-chatbots op maatregelen te nemen die voorkomen dat hun AI-systemen kunnen worden gebruikt voor het geven van stemadvies. Daartoe zijn ze volgens de AI-verordening sowieso verplicht, maar dat lappen de techbedrijven aan hun laars. Anthropic, Google, OpenAI en xAI hebben nog minder dan tien dagen om hun misleidende praktijk te staken. Sc Stemhulpen zoals StemWijzer en Kieskompas zijn zeer populair en worden in verkiezingstijd door miljoenen kiezers geraadpleegd. Maar onderzoekers Naomi Kamoen en Christine Liebrecht van Universiteit Tilburg stellen dat gebruikers soms te weinig informatie hebben om een stelling goed te beantwoorden – en zo een passend advies te krijgen. De onderzoekers werken aan een gecontroleerde chatbot bij de stemhulp die de stellingen en moeilijke begrippen uitlegt, zodat de gebruiker meer kennis krijgt over de verkiezingen. ‘Wij zochten daarom naar een laagdrempelige methode om mensen te helpen meer kennis te krijgen van de verkiezingen’, vertelt Christine Liebrecht, chatbotonderzoeker ‘Als mensen al gaan googelen voor meer informatie, dan worden ze overspoeld met informatie. Daarom werken we aan een chatbot die gekoppeld kan worden aan de stemhulp en die je meteen informatie op maat kan aanbieden: alleen het antwoord op die specifieke vraag die je stelt. Dat kan bijvoorbeeld informatie zijn over een moeilijk woord, of meer uitleg over de stelling. Of over welke argumenten er door politieke partijen in discussies worden gebruikt. Onze chatbot is gecontroleerd. Dat betekent dat het alleen antwoorden teruggeeft die door mensen zijn geschreven en gecontroleerd, want tot nu toe blijken AI-gegenereerde antwoorden niet altijd correct te zijn.’ Kamoen en Liebrecht deden de afgelopen jaren onder diverse doelgroepen onderzoek naar zo’n chatbot en de resultaten waren veelbelovend. Liebrecht: ‘Mensen waren positief over de tool. Ze snapten de politieke kwesties beter en bleken ook meer gemotiveerd om te gaan stemmen als ze hulp van de bot kregen.’ Kamoen: ‘Let wel, het gaat om een informatieve chatbot, deze geeft geen advies maar moet je zien als kennisbank.’ Omdat de potentiële gebruikersgroep heel divers is, vroegen de onderzoekers uiteenlopende mensen de chatbot te gebruiken: ze gingen ervoor naar ROC’s, stonden bij de Albert Heijn, het gemeentehuis, de kapper, het buurthuis. Dat gaf een gevarieerder beeld dan bijvoorbeeld alleen studenten in een laboratorium. Foto: Amber Weir / Unsplash  
emerce
21-10-2025 06:10