AI blijft fundamenteel onbetrouwbaar, stelt lector Pascal Wiggers

De nieuwste AI-modellen kunnen indrukwekkende prestaties leveren: ze lossen wiskundige vraagstukken op, programmeren en geven bruikbare adviezen aan bedrijven. Toch blijft deze krachtige technologie volgens lector Pascal Wiggers van de Hogeschool van Amsterdam fundamenteel onbetrouwbaar. In zijn lectorale rede van 30 oktober waarschuwt hij: “AI maakt fouten op onvoorspelbare momenten, kan waarheid niet van onwaarheid onderscheiden en heeft geen notie van betekenis. Deze tekortkomingen zullen nooit volledig verdwijnen.” Met die uitspraak plaatst Wiggers zich tegenover het optimistische beeld dat grote techbedrijven schetsen. Zij gaan ervan uit dat de huidige tekortkomingen van AI – zoals vooroordelen en onjuiste redeneringen – op termijn verdwijnen. De ‘profeten van Silicon Valley’ voorspellen zelfs dat kunstmatige intelligentie op termijn menselijke intelligentie zal evenaren of overstijgen: de zogeheten superintelligentie. Volgens Wiggers zijn de mogelijkheden van moderne AI nauwelijks te overschatten. Systemen herkennen patronen die voor mensen verborgen blijven – ze ontdekken bijvoorbeeld vroege signalen van tumoren op röntgenbeelden of voorspellen nauwkeurig de driedimensionale structuur van eiwitten. Ook blijken de meest geavanceerde modellen in staat tot redeneren, discussiëren en het oplossen van complexe wiskundige problemen. Wetenschappers proberen ondertussen beter te begrijpen wat er zich “onder de motorkap” afspeelt. Wiggers legt uit hoe onderzoekers inzicht proberen te krijgen in de werking van deze systemen en wat er precies binnenin gebeurt. Daarbij valt op dat AI-modellen tijdens hun training niet alleen patronen leren, maar ook een vorm van metakennis ontwikkelen – abstracte kennis over taal en strategieën om problemen op te lossen. Die metakennis ontstaat niet doordat mensen die expliciet programmeren, maar doordat de modellen enorme hoeveelheden data verwerken. Dat maakt het verleidelijk om menselijke redenering toe te dichten aan deze technologie. Toch, benadrukt Wiggers, gaat het nog steeds vaak mis bij simpele, alledaagse vragen. Zo haalt hij in zijn rede een variatie aan op het bekende raadsel van de wolf, de geit en de kool. ChatGPT geeft daarbij steevast een antwoord dat past bij het klassieke raadsel, maar niet bij de aangepaste versie. “De modellen antwoorden met hetzelfde zelfvertrouwen waarmee ze een briljante analyse geven – maar soms is het gewoon onzin,” zegt Wiggers. “En wat het ingewikkeld maakt: die briljante en verkeerde momenten lopen dwars door elkaar heen.” De oorzaak ligt volgens Wiggers in de aard van machine learning. AI leert via statistiek: het zoekt naar patronen in grote hoeveelheden data. Hoe vaker een patroon voorkomt, hoe sterker het wordt verankerd. Daardoor zijn de modellen nooit volledig betrouwbaar – ze kennen immers niet alle mogelijke situaties. Statistische AI heeft bovendien moeite met uitzonderingen en minderheidsgevallen. Dat leidt tot systematische uitsluitingen. Zo kan een sollicitant met een ongewoon, maar interessant cv onterecht worden afgewezen, simpelweg omdat het profiel niet past binnen de gemiddelden waarop het systeem is getraind.
emerce
30-10-2025 08:41