Dit zijn de gevaren van ai (6) voor mens en maat­schap­pij

Ai is aan een enorme opmars bezig, op korte termijn is het misschien een hype, maar op de lange termijn heeft ai waarschijnlijk meer invloed op de economie, ons werk en de maatschappij dan we nu kunnen overzien. Ai-aanbieders buitelen over elkaar heen met juichverhalen over ai. Maar wat zijn de gevaren? In het boek De grote verandering – Hoe machines slimmer worden en wat dat voor jou betekent, benoemt futurist en ai-spreker Robbert van Empel naast allerlei kansen en mogelijkheden ook zes gevaren van ai die op de loer liggen. We zetten ze samengevat op een rij. #1 De ai-wapenwedloop leidt tot risico’s De wedstrijd om de slimste te zijn met ai en toepassingen te ontwikkelen die op vrijwel alle vlakken slimmer zijn dan mensen speelt zich af tussen de machtsblokken China en de VS. De Amerikaanse aanpak is door keiharde concurrentie tussen een aantal grote spelers enigszins chaotisch, maar qua regeling krijgen die spelers veel ruimte omdat de Amerikaanse overheid ‘als de dood’ is om de voorsprong op China te verliezen, beschrijft Van Empel. Waar eerder nog een bredere discussie was over ethiek en het doel van ai en de gevaren voor mensen, sluit de overheid nu contracten voor ai-toepassingen voor het leger, spionage en nieuwe wapens. In China loopt de ai-ontwikkeling via een strak door de staat gestuurd groeiprogramma. Ze dwingen de beste ai-onderzoekers, en eigenaren van grote datasets en supercomputers tot samenwerking waarbij nieuwe ai-datacenters voor hun energietoevoer waarschijnlijk aan kerncentrales worden gekoppeld. Die dynamiek van een machtsstrijd kan leiden tot het nemen van steeds grotere risico’s en het overslaan van veiligheidsstappen om de concurrentie voor te blijven. Van Empel: ‘De overtuiging dat snelheid en innovatie belangrijker zijn dan het voorkomen van kleine foutjes, in Sillicon Valley-motto: ‘move fast and break things’, krijgt een nieuwe angstaanjagende betekenis als het ‘ding’ dat je kapot kunt maken de toekomst van de mensheid is.’ #2 Het gevaar van ai-kolonialisme Van Empel spreekt over een onzichtbare overheersing door ai. Een gevaar dat volgens hem subtieler is dan de ai-wapenwedloop. Hij noemt dat ai-kolonialisme. ‘We denken vaak dat technologie neutraal is. Dat een rekenmachine geen mening heeft. Maar ai is geen rekenmachine. Ai is getraind op data en die data bevatten een wereldbeeld.’Hij wijst op de cultuur en de normen die in de ai-oplossingen terecht komen. In het geval van de VS is deze ai ‘doordrenkt’ met typische waarden van de Amerikaanse Westkust en Sillicon Valley, zoals hyper-kapitalisme, liberalisme, efficiëntie en winst. De Chinese ai bevat de waarden van de Communistische Partij die sociale stabiliteit boven individuele vrijheid stelt. Het model verkiest harmonie boven kritiek en de belangen van de groep gaan altijd boven die van het individu. ‘Het risico is dat we eindigen in een wereld waarin er nog maar twee smaken zijn: De Amerikaanse of de Chinese’, schrijft Van Empel die wijst op het belang van open ai-modellen die de eigen waarden en culturen van de makers én gebruikers weerspiegelen. ‘Als we niet oppassen worden we digitaal gekoloniseerd zonder dat er ooit een soldaat aan te pas komt.’ #3 Strenge regelgeving zet Europa buitenspel in ai-innovatie Europa kiest in de mondiale ai‑race niet voor schaal of snelheid, maar voor regulering als strategisch antwoord, duidt Van Empel. De EU AI‑Act werkt volgens een risico‑piramide, duidt hij. Bovenaan staan ‘verboden toepassingen’ zoals social scoring, onbewuste manipulatie, realtime biometrie in de openbare ruimte en emotieherkenning op school of werk. In de volgende laag komen ‘hoog‑risico’‑systemen aanbod. Het gaat om ai-toepassingen voor onder meer rechtshandhaving, migratie en onderwijs, die aan strenge eisen moeten voldoen. Toepassingen met ‘beperkt risico’, zoals chatbots vormen de derde laag, aanbevelingssystemen en spamfilters vallen in de vierde ‘minimaal risico’-categorie.   Met deze structuur wil Brussel ethische grenzen afdwingen en wereldwijd de standaard zetten voor verantwoorde ai, duidt de auteur. Dat is het zogeheten Brussels effect: Europese regels worden zo invloedrijk dat ze internationaal worden overgenomen. De gedachte daarachter is dat Europa niet hoeft te winnen op rekenkracht, maar op normstelling — door de spelregels van de ai‑race te herschrijven. Critici waarschuwen dat deze aanpak de Europese ai-innovatie kan afremmen. Terwijl Amerikaanse en Chinese bedrijven op volle snelheid doorgaan, dreigt Europa te verzanden in bureaucratie. Dat kan leiden tot technologische achterstand, afhankelijkheid van buitenlandse ai‑systemen en tragere toegang voor Europese burgers tot nieuwe ai‑toepassingen. Kortom: bescherming en normstelling botsen met het risico dat Europa zichzelf buitenspel zet in de innovaties rondom ai, aldus de ai-expert. #4 Slechte mensen misbruiken ai-superkrachten ‘Een van de meest directe, tastbare gevaren van ai is dat het een ongelooflijk krachtig gereedschap is in handen van mensen met slechte bedoelingen’, schrijft Van Empel die wijst op de destructieve gevolgen van de ‘krachtversterker’ die ai is. Hij wijst bijvoorbeeld op ai-modellen die de kennis vergaren van alle beschikbare wetenschappelijke informatie rondom bijvoorbeeld biologische wapens of het ontwerp van een gevaarlijk virus. Ai verlaagt volgens hem de drempel voor het creëren van een pandemie. Konden eerst alleen supermachten zoiets creëren, nu ligt die weg ook open voor een paar ‘slimme’ studenten in een garage die via ai-toegang hebben tot allerlei informatie en het systeem bevragen op tips om zo’n virus te verspreiden. ‘Ook is ai een geducht wapen in de informatieoorlog’, schrijft de auteur. Nu wordt ai al ingezet voor nep-informatie en propaganda, dat kan met de opkomst van deepfake videos, nepprofielen op sociale media en aanvallen op de feitelijke waarheid alleen maar toenemen, stelt hij.Ook de opkomst van door ai aangestuurde wapens die zelfstandig, dus zonder de tussenkomt van mensen beslissen over leven en dood, leiden tot zorgen. En dan is er ook de angst voor ai die cyberoorlogsvoering en kwaadwillende hackers 24×7 kan ondersteunen.#5 Controleverlies als de computer niet meer luistertEén van de meest existentiële en fundamentele gevaren waar de makers van ai van wakker liggen is het risico op controleverlies, stelt Van Empel. ‘Wat gebeurt er als we erin slagen een ai te maken die zo onvoorstelbaar slim is (superintelligent) dat het zijn eigen doelen begint na te streven en zich niet langer laar sturen door de menselijke makers?’, vraagt hij zich af. Hij schetst een aantal apocalyptische scenario’s uit onder mee het AI 2027-rapport en wijst erop dat ai echt gevaarlijk wordt als het de mens als belemmering gaat zien voor zijn eigen voorbestaan. #6 Het verlies van de vrijheid door ai als controle-instrument ‘Naast de apocalyptische scenario’s van een op hol geslagen superintelligentie, is er een ander, meer sluipend en misschien wel waarschijnlijker gevaar. Een gevaar dat niet onze levens bedreigt maar wel onze vrijheid en autonomie. Ai is namelijk het perfecte, meest efficiënte instrument voor surveillance en sociale controle dat ooit is uitgevonden’, schrijft Van Empel. Hij wijst op autoritaire staten zoals China waar die controle al dagelijkse realiteit is doordat camera’s met geavanceerde technologie voor gezichtsherkenning burgers volgen en beoordelen en bij overtredingen beperkingen opleggen, zo ontstaat een ‘digitale gevangenis met onzichtbare tralies.’ Hij schrijft dat in Westerse landen inlichtingendiensten onder het mom van ‘veiligheid’ hun boekje te buiten gaan door op zoek in een databerg van telefoongesprekken, emails en internetverkeer de privacy van burgers te schenden. ‘De grote verandering dwingt ons om een fundamenteel en dringend debat te voeren over de balans tussen technologie, veiligheid en vrijheid.’ De Grote Verandering – Hoe machines slimmer worden en wat dat voor jou betekentAuteur: Robbert van EmpelISBN: 9789493480148Uitgeverij: Van Duuren Management
computable
15-05-2026 17:00