Volgens een nieuwe studie van het Duitse nationale onderzoekscentrum voor toegepaste cybersecurity ATHENE voegen generatieve AI-systemen bij het ontwerpen van websites op eigen initiatief manipulatieve ontwerpstrategieën in. Denk hierbij aan vervalste klantbeoordelingen, nep-aanbiedingen met tijdsdruk of misleidende prijsvergelijkingen.
‘Verontrustend is dat AI deze zogenoemde dark patterns implementeert zonder waarschuwing of verwijzing naar mogelijke juridische of ethische bezwaren,’ aldus Jan Gugenheimer, hoofdauteur van de studie,
In het onderzoek lieten de wetenschappers proefpersonen een fictieve webshop genereren met behulp van GPT-4o. Naast bekende merkschoenen werd daar ook een eigen schoenmerk verkocht. De deelnemers werden verdeeld over twee groepen: de ene groep moest enkel een productoverzicht en een nieuwsbriefinschrijving toevoegen, terwijl de andere groep als extra opdracht kreeg om klanten actief te overtuigen van de eigen schoen en de nieuwsbriefinschrijvingen te verhogen.
De verschillen in resultaten waren opvallend: de eerste groep genereerde acht manipulatieve ontwerptechnieken, terwijl de tweede groep maar liefst 103 dark patterns opleverde. Om te testen of dit effect AI-breed voorkomt, herhaalden de onderzoekers het experiment met andere taalmodellen: Claude 3.5 Sonnet van Anthropic en Gemini 1.5 Flash van Google.
Bij deze tweede test kwamen er opnieuw duidelijke verschillen aan het licht. GPT-4o genereerde 30 manipulatieve elementen, Claude 22, terwijl Gemini slechts 5 dark patterns bevatte. GPT en Claude plaatsten de eigen schoen vaak opvallend in beeld, gaven valse kortingen en suggereerden een beperkte voorraad of urgentie. Gemini deed dit aanzienlijk minder, maar gaf gebruikers wél suggesties voor dit soort technieken, zoals pop-ups bij het verlaten van de site of het inzetten van (verzonnen) beroemdheden voor aanbevelingen.
GPT-4o ging zelfs zover dat het nep-getuigenissen toevoegde en verwees naar vermeende hoge vraag en lage beschikbaarheid van het product. Ook valse prijsvergelijkingen kwamen voor.
De proefpersonen beoordeelden het eindresultaat meestal als een gezamenlijke creatie van mens en machine. Toch vonden de meesten dat de verantwoordelijkheid voor het uiteindelijke ontwerp bij de mens lag. Over de morele toelaatbaarheid van de manipulatieve elementen liepen de meningen uiteen. Sommige deelnemers hadden daar geen moeite mee, anderen vonden de valse beoordelingen en cijfers problematisch.
Volgens de onderzoekers zijn deze uitkomsten deels te verklaren door de trainingsdata van de AI. Omdat er online veel websites bestaan met dubieuze ontwerpkeuzes, nemen taalmodellen deze patronen ongemerkt over. Bovendien is het zorgwekkend dat AI-systemen deze psychologische mechanismen niet alleen begrijpen, maar ook actief toepassen.
De auteurs pleiten daarom voor strengere richtlijnen en technische barrières bij het trainen van AI, om het automatisch genereren van misleidende ontwerpen te voorkomen. Intussen experimenteert ook WordPress met een eigen AI-tool voor websitecreatie.
emerce
07-05-2025 08:10