computable

130 nieuwsberichten gevonden
Kort: Mobiel netwerk VodafoneZiggo vernieuwd, dislikes voor Bluesky (en meer)
3 weken
In dit nieuwsoverzicht: Mobiel netwerk Nederland van VodafoneZiggo gemoderniseerd en energiezuiniger, Yellowtail Conclusion neemt Faraday over, CBS ziet link tussen ai-gebruik, bedrijfsgrootte en ict-investeringen, dislikes voor Bluesky en Zuid eerste Webflow Enterprise Partner in Benelux. Mobiel netwerk Nederland gemoderniseerd en energiezuiniger Drieduizend locaties in Nederland van VodafoneZiggo gaan de komende drie jaar gemoderniseerd worden met technologie van Ericsson. Daarbij wordt de 3,5 GHz-frequentie uitgerold en bestaande infrastructuur vernieuwd, zo meldt Ericsson. Het Zweedse bedrijf levert daarvoor de TDD Massive MIMO-radio AIR 3255 die tot drieënzestig procent minder energie verbruikt en 58 procent lichter is dan de voorganger. Het programma moet de capaciteit en prestaties van het netwerk verbeteren en tegelijk bijdragen aan de duurzaamheidsdoelen. De werkzaamheden omvatten levering, installatie en beheer van het volledige netwerklandschap en lopen de komende drie jaar door. Yellowtail Conclusion neemt Faraday over Het Naardense Yellowtail Conclusion, onderdeel van Conclusion, neemt digital agency Faraday over, zo melden beide. De overname versterkt de positie van de nieuwe moeder in digitale transformatie voor financiële instellingen zoals pensioenfondsen, banken en verzekeraars. De nieuwe dochter brengt expertise in gebruikersgericht design en ai-technologie mee, waarmee organisaties hun klantreis kunnen optimaliseren. Beide bedrijven blijven voorlopig onder eigen naam opereren. Faraday heeft ruim vijftien jaar ervaring binnen sectoren met complexe regelgeving. Conclusion bestaat uit meer dan dertig Nederlandse expertbedrijven en begeleidt organisaties bij businesstransformatie en it-services. CBS: bedrijven die ai gebruiken zijn vaker groot en investeren vaker in ict Elf procent van de bedrijven die in 2024 ai gebruikten had 250 of meer werknemers, tegen drie procent bij bedrijven zonder ai, zo concludeert het CBS uit eigen onderzoek. Verder blijkt uit die cijfers dat bedrijven met ai vaker investeren in ict: 79 procent deed dat in 2023, tegenover 70 procent zonder ai. Veertien procent van de ai-bedrijven investeerde meer dan tweehonderd miljoen euro, tegen vier procent bij bedrijven zonder ai. Wat verder opviel is dat bedrijven met ai vaker patenten aanvragen dan die zonder, vijf procent tegen respectievelijk één procent in 2021. Dislikes voor Bluesky Bluesky heeft een aantal nieuwe functies aangekondigd. Onder meer een volgers-only reply-instelling, mod lists en de mogelijkheid om quote posts los te koppelen. Het bedrijf test daarnaast reply-ranking op basis van sociale nabijheid, een dislikes-functie als feedbacksignaal en verbeterde detectie van toxische of spamreacties. Ook wordt de reply-knop aangepast zodat gebruikers eerst de hele thread zien, wat contextverlies moet voorkomen. Verder krijgen reply-instellingen een duidelijkere interface. Het platform maakte ook bekend inmiddels veertig miljoen gebruikers te hebben. (X heeft meer dan zeshonderd miljoen gebruikers, waarvan zo’n 250 miljoen dagelijkse). Zuid eerste Webflow enterprise partner in Benelux Het Tilburgse Zuid is benoemd tot eerste grote Webflow enterprise partner in de Benelux. De status is de hoogste binnen dat partnerprogramma voor het moderniseren van digitale landschappen met schaalbare oplossingen. Het bureau werkt al jaren met het low-code platform en heeft zijn dienstverlening uitgebouwd tot een volledig Webflow-aanbod, zo zegt het. De software stelt marketeers in staat websites zelfstandig te beheren, terwijl developers zich richten op integraties en innovaties.
Verplicht scannen tegen kinderporno geschrapt omwille van privacy
3 weken
Het Deense EU-voorzitterschap trekt een omstreden voorstel in dat techbedrijven zou verplichten privéberichten te scannen op materiaal van seksueel misbruik van kinderen. Nederland, Duitsland en zelfs de eigen regeringspartij waren tegen de plannen. De Deense minister van Justitie Peter Hummelgaard bevestigde volgens Deense media dat het opsporingsmandaat geen onderdeel meer is van het nieuwe compromisvoorstel: ‘Het blijft vrijwillig voor techgiganten om dergelijk materiaal op te sporen.’ Hummelgaard leidt de onderhandelingen over de CSA-verordening (ook wel CSAR, Child Sexual Abuse Regulation), die nog tot het einde van het jaar onder Deens voorzitterschap valt. De CSA-verordening werd in 2022 door de Europese Commissie voorgesteld en zou bedrijven kunnen verplichten om ook versleutelde berichten te scannen. Volgens critici zou dit leiden tot massa­toezicht en een inbreuk op fundamentele rechten. Duitsland sprak eerder expliciet van ‘massasurveillance’. Te streng toezicht te controversieel Hoewel Hummelgaard benadrukt dat het Deense voorstel minder ingrijpend was dan het oorspronkelijke plan van de Commissie, bleef steun uit. ‘Het Chatcontrol voorstel was zeer controversieel. In essentie zouden onder het voorstel alle online berichten automatisch worden gecontroleerd op mogelijke sexuele content van minderjarigen,’ verduidelijkt Stephan Mulders, advocaat bij Blenheim in Amsterdam, aan Computable. ‘Dat is niet alleen een verplichte doorbreking van de end-to-end encryptie, maar ook een vorm van massasurveillance, die een ernstige inbreuk op de privacy vormt.’ ‘De Nederlandse regering heeft dan ook verklaard Chatcontrol niet te steunen, hetgeen waarschijnlijk mede de reden is dat Denemarken heeft besloten Chatcontrol uit de richtlijn te halen.’ Ook Duitsland en zelfs de Deense regeringspartij Moderaterne trokken de steun in. Daarmee ontbrak de noodzakelijke meerderheid. Laat Big Tech vrijwillig scannen Kinderrechtenorganisaties als Red Barnet, Unicef en Børns Vilkår steunden het voorstel wel. Zij wezen op het risico dat een belangrijk opsporingsinstrument verdwijnt, omdat de huidige regeling voor vrijwillige scanning in april 2026 afloopt. Door de verplichting te schrappen hoopt Denemarken dat het gewijzigde wetsvoorstel tegen online kindermisbruik alsnog snel wordt goedgekeurd en er geen hiaat onstaat rond het opsporen van beelden van kindermisbruik. Mulders: ‘Onder het nieuwe voorstel is controle nog steeds mogelijk, maar niet langer verplicht.’ Overigens noemde Red Barnet zulke vrijwillige opsporing tot nu toe ‘een groot succes’
Tech als kans, veiligheid als voorwaarde in onderwijs
3 weken
De digitale transformatie blijft onderwijs en onderzoek ingrijpend veranderen. Ai, cloud en kwantum bieden kansen, maar vergroten ook risico’s. SURF benadrukt in Tech Trends 2026 dat samenwerking, veiligheid en autonomie cruciaal zijn om deze ontwikkelingen verantwoord te benutten. De digitale transformatie dendert door het Nederlandse onderwijs en onderzoek. Ai, cloud- en kwantumtechnologie beloven ongekende mogelijkheden, maar brengen ook nieuwe kwetsbaarheden en afhankelijkheden met zich mee. Terwijl instellingen experimenteren met slimme toepassingen in de klas en het lab, groeit de druk om publieke waarden, autonomie en veiligheid te bewaken. SURF, de ict-coöperatie van Nederlandse onderwijs- en onderzoeksinstellingen, schetst in Tech Trends 2026 (pdf) hoe samenwerking en duidelijke kaders onmisbaar zijn om deze technologische golf in goede banen te leiden. Wat valt daarin op? Digitale transformatie: ai als infrastructuur én als risico Ai wordt door SURF benoemd als systeemtechnologie die alle lagen van de digitale stack beïnvloedt. Binnen onderwijs en onderzoek leidt dit tot automatisering van lesplanning, feedback en administratieve processen. Tegelijkertijd ontstaan nieuwe afhankelijkheden van leveranciers en infrastructuur. Tom Hoven, woordvoerder van SURF, benadrukt echter tegen Computable: ‘Als SURF gaan wij niet over invulling van tech binnen het klaslokaal. De vorm en toepassing daarvan ligt bij onze leden zelf, die kunnen op basis van hun didactische onderwijsconcept zelf keuzes maken hierin.’ De inzet van ai vereist digitale vaardigheden, ethische kaders en robuuste governance. Een concreet voorbeeld is de toepassing van ai in online leeromgevingen, waar het wordt ingezet voor interactie en ondersteuning, maar waar het ook risico’s met zich meebrengt zoals geautomatiseerd spieken en deepfakes. SURF wijst daarom op de noodzaak van veilige ai-pijplijnen en strategieën die operationele veiligheid waarborgen. Ook interdisciplinair onderwijs krijgt aandacht, bijvoorbeeld rond slimme implantaten in de gezondheidszorg. Universiteiten en ziekenhuisonderzoeksgroepen werken bijvoorbeeld aan technologieën die traditionele metalen implantaten vervangen, wat vraagt om nieuwe curricula en samenwerking tussen disciplines. Om deze transformatie verantwoord vorm te geven, pleit SURF voor sectorbrede kaders voor ai-gebruik, met expliciete aandacht voor publieke waarden, autonomie en digitale vaardigheden. Digitale veiligheid: van cybersecurity tot databeheer De inzet van ai, iot en cloud-technologie vergroot de complexiteit van cybersecurity. Onderzoeksinstellingen profiteren van ai voor dreigingsmodellering en netwerkmonitoring, maar lopen ook risico door open access-beleid en internationale samenwerking. Hoven: ‘Datacapaciteit en cybersecurity zijn beide belangrijke onderwerpen waar we als sector en coöperatie hard aan werken.’ Privacyverhogende technologieën zoals federated learning* en synthetische data worden toegepast in projecten bij het AMC, SVB en UWV. Deze maken veilige datadeling mogelijk zonder directe toegang tot brondata. Tegelijkertijd vraagt dit om investeringen in infrastructuur en expertise. Ook datamanagement verandert: ai automatiseert taken zoals kwaliteitscontrole en integratie, maar vereist hoogwaardige en semantisch rijke data. SURF benadrukt dat instellingen hun digitale weerbaarheid moeten versterken door te investeren in crypto-agility, pet’s (privacy enhancing technologies) en semantische datakwaliteit. Dit vraagt om structurele samenwerking, technische vernieuwing en beleidsmatige verankering. Digitale autonomie: cloud, data spaces en identiteit De afhankelijkheid van Amerikaanse hyperscalers blijft groot. Europese alternatieven zoals EOSC en NextCloud worden wel ingezet, maar structurele afhankelijkheid blijft volgens SURF een risico. Tegelijkertijd groeit de behoefte aan veilige datadeling via gestandaardiseerde data spaces en TRUST*-principes. Ondertussen evolueert digitale identiteit via de EUDI Wallet en Self-Sovereign Identity, met organisatorische wallets als nieuwe norm voor samenwerking en compliance. Als voorbeeld van de geopolitieke urgentie noemt SURF de European Chips Act, die moet bijdragen aan technologische autonomie. De organisatie wijst op de noodzaak van een Europees microchip-ecosysteem, mede vanwege de afhankelijkheid van Aziatische productie en de schaarste aan grondstoffen. Volgens SURF is het noodzakelijk dat instellingen actief kiezen voor Europese cloud-alternatieven, TRUST- en FAIR*-principes breed implementeren, en infrastructuur opbouwen voor veilige digitale identiteit en datadeling. Dit versterkt de autonomie en veerkracht van de sector. Want, zo stelt Hoven, ‘vooral samenwerking binnen de sector als uniek punt maakt ons sterk.’ * Begrippenlijstje:– federated learning: ai trainen op lokale data en alleen die inzichten delen met centrale server.– FAIR-principe: findable, accessible, interoperable, reusable.– TRUST-principe: transparency, reliability, user control, security, trustworthiness.
Escalatie intern conflict bij Nexperia
4 weken
Nexperia Nijmegen heeft deze week de levering van wafers aan zijn assemblagefabriek in het Chinese Dongguan stopgezet. Dat blijkt uit een brief aan klanten, ingezien door persbureau Reuters.  Interim-CEO Stefan Tilger stelt dat het besluit voortkomt uit het niet-nakomen van contractuele betalingsverplichtingen door het lokale management in China. De Europese organisatie wil de levering aan de Chinese vestigingen pas hervatten als die weer aan hun contractuele verplichtingen voldoen, aldus de brief. Nexperia Nijmegen voegde eraan toe dat ‘de beslissing geen intentie weerspiegelde om zich terug te trekken uit haar locatie in Dongguan of de Chinese markt als geheel’.  Tekort elektronische componenten De auto-industrie huivert nu de verhoudingen intern bij Nexperia verder verslechteren. Zonder deze halffabricaten (wafers) die als basis dienen voor de productie van chips, zal het tekort aan deze elektronische componenten verder oplopen. China had al de export verboden van chips die in Chinese Nexperia-fabrieken zijn geproduceerd en bestemd zijn voor Europa.  De regering in Beijing deed dat in een reactie op het besluit van demissionair minister Vincent Karremans (Economische Zaken) om de controle over Nexperia naar zich toe te trekken. Hij vond dat nodig omdat kennis en intellectueel eigendom naar China dreigden weg te lekken. Tegelijk onthief de Amsterdamse Ondernemingskamer CEO Zhang Xuezheng, tevens grootaandeelhouder, tijdelijk uit zijn functie. Politieke relatie Den Haag ontkent enige betrokkenheid bij de leveringsstop van wafers aan China. Het Europese management heeft deze maatregel geheel eigenhandig genomen. De Nederlandse Staat intervenieert alleen als de productiecapaciteit in Europa in gevaar komt.  De politieke relatie tussen Nederland en China is dicht bij het vriespunt beland. Nederland voert overleg met andere Europese regeringen waaronder Duitsland, de Europese Commissie en de Chinese autoriteiten. Vrijdag heeft eurocommissaris Henna Virkkunen (technologie) vergaderd met de leiding van Nexperia. Ze werkt toe naar een diplomatieke doorbraak. Intussen wordt ook gekeken naar korte en middellange termijn-maatregelen ter overbrugging van de tekorten aan het soort chips dat Nexperia maakt. De Volkswagen Groep heeft nog voor een week voorraad. Een toeleverancier als ZF Friedrichshafen heeft al ploegendiensten moeten schrappen. Om toch maar aan Nexperia-chips te komen betalen sommige afnemers wel 25 keer zoveel voor bepaalde chips als normaal.
Ai bij verzekeraar Achmea
4 weken
Repeterende klussen op- en afschalenDe Praktijk – Bij verzekeraar Achmea is de toepassing van ai een belangrijk en integraal onderdeel van de strategie en versnelt het de uitvoering van groeiplannen. Computable praat erover met Arnoud Boere, programmamanager AI bij Achmea.‘De nieuwe generatie ai-technologie biedt veel mogelijkheden om de klanten van Centraal Beheer, Interpolis, Zilveren Kruis en onze andere merken nog beter van dienst te zijn en onze collega’s te ondersteunen in hun werk. Daarbij is ai geen doel op zich, maar een middel om onze klanten sneller, persoonlijker en betrouwbaarder te helpen en om de meest vertrouwde financiële dienstverlener te zijn én te blijven. Dankzij de eerder ingezette rationalisatie van onze ict-systemen en de vrijwel afgeronde migratie naar de cloud, leggen we de basis om ai nog breder toe te passen en onze service verder te verbeteren’, zegt Arnoud Boere, programmamanager AI bij Achmea.Welke verzekeringsprocessen zijn geschikt om door ai-agents te worden uitgevoerd?‘Ai-agents hebben binnen de verzekeringsbranche veel potentieel voor processen of taken die kennis- en data-intensief zijn, veel herhaling kennen of gebaseerd zijn op duidelijke regels. Denk aan het afhandelen van schadeclaims, het beantwoorden van klantvragen via chatbots en het verwerken van mutaties in de polisadministratie, zoals adreswijzigingen of de aanpassing van dekking. Dit zijn processen die voor de klant het liefst snel moeten worden afgehandeld en die voor de verzekeraar eenvoudig op- of afgeschaald moeten kunnen worden. De ai-agents kunnen werk uit handen nemen en zorgen voor snelheid en consistentie.’Wat doen jullie al met ai-agents?‘Wij zijn actief bezig met het verkennen en ontwikkelen van ai-agents. Deze worden gezien als digitale assistenten die geheel of gedeeltelijk zelfstandig taken kunnen uitvoeren. Ze gaan verder dan traditionele chatbots en robotic process automation-scripts: ai-agents zijn contextbewust, kunnen plannen, leren en samenwerken.Ons uitgangspunt is dat er altijd sprake is van een ‘human in the loop’. Daarmee bedoelen we dat ai-toepassingen altijd worden gebruikt in combinatie met checks and balances waarbij mensen betrokken zijn. Zo voorkomen we eventuele ‘computer says no’-issues. Het gaat om een nieuwe technologie die nauwgezet gevolgd en gecontroleerd moet worden.Een concreet voorbeeld is een lopend onderzoek naar een zogeheten security-agent. Deze agent analyseert netwerkverkeer op pogingen van hackers om kwetsbaarheden uit te buiten. Door patronen te herkennen met behulp van ai, stelt de agent passende acties voor aan securityspecialisten, zoals het afsluiten van poorten of het verhogen van monitoring.De hier ontwikkelde techniek heeft potentieel voor bredere toepassingen waarbij snel en adequaat reageren op complexe data cruciaal is, bijvoorbeeld governance en controle.Verder onderzoeken we actief nieuwe toepassingen en testen die binnen verschillende bedrijfsfuncties, zoals schade-afhandeling, risicobeoordeling, klantinteractie en documentanalyse. De ambitie is om ai-agents alleen in te zetten waar ze daadwerkelijk waarde toevoegen en niet als gimmick.’Hoe check je ai en wat doe je als die fouten maakt?‘We nemen onze verantwoordelijkheid als financiële dienstverlener uiterst serieus. Daarom wordt streng gelet op veiligheid, transparantie en compliance. Alle denkbare technische maatregelen worden genomen, zoals het toevoegen van contentfilters en testprocedures, denk aan red teaming, om risico’s te beperken, en het borgen dat ai-modellen gedeactiveerd kunnen worden wanneer deze niet goed functioneren.Wij hanteren een strikt toetsingskader, gebaseerd op wettelijke vereisten zoals de AI Act en ethische richtlijnen zoals de Unesco AI-principes. Daarnaast wordt het NIST AI Risk Management Framework gebruikt als referentie om de volledigheid van beheersmaatregelen te toetsen. Elk ai-systeem bij ons wordt vooraf gecontroleerd en tijdens gebruik gemonitord en geëvalueerd.Er vinden ethische én juridische toetsen plaats. Juridisch wordt onder andere gekeken naar naleving van de AI Act en de AVG: is de verwerking van gegevens rechtmatig, zijn de risico’s voldoende ingeschat, en is de besluitvorming uitlegbaar? Ook wordt beoordeeld of het systeem voldoet aan interne richtlijnen zoals het Ethisch Kader Datagedreven Besluitvorming dat we samen met het Verbond van Verzekeraars hebben ontwikkeld. Bij fouten is er altijd een vangnet.Dat betekent dat er menselijke tussenkomst mogelijk is bij bepaalde uitkomsten, bijvoorbeeld wanneer een ai-systeem een claim afwijst of een risicoscore toekent. Er zijn duidelijke verantwoordingslijnen: het is vooraf vastgelegd wie verantwoordelijk is voor het ontwerp, het gebruik en het toezicht op het ai-systeem. Zo kan bij een incident snel worden vastgesteld waar het misging en wie actie moet ondernemen. Op deze manier borgen wij dat ai veilig, transparant en verantwoord wordt ingezet.’“Ai wordt niet als losstaand ict-project gezien, maar als organisatiebrede ontwikkeling die samenwerking tussen vakgebieden vereist”Hoe borg je als bedrijf de uitlegbaarheid van ai?‘Achmea legt over de gehele verwerkingsketen digitale sporen vast van hoe beslissingen tot stand komen, zodat de datakwaliteit geborgd kan worden. Hierdoor kan worden aangetoond dat het ai-systeem correct functioneerde.’Risicomanagement valt meestal onder de cfo, maar ai is ook ict, dus dat valt onder de cio. En het betreft security, dus de ciso is betrokken en dan is er nog legal… hoe doen jullie dat?‘We zien dat een verantwoordelijke inzet van ai vraagt om een brede betrokkenheid van disciplines uit ons bedrijf, met ons Responsible AI framework als basis. Het gaat dan bijvoorbeeld om samenwerking tussen compliance, risk management, it, legal en security. Daarom hebben wij centrale sturing en governance ingericht, met vertegenwoordigers van al deze rollen. Zo wordt ai integraal aangestuurd, met aandacht voor risico, technologie, veiligheid en juridische aspecten. Ai wordt op deze manier niet als losstaand ict-project gezien, maar als organisatiebrede ontwikkeling die samenwerking tussen vakgebieden vereist.’Wat komt er nog meer kijken bij toepassing van ai in de organisatie?‘Ai is een veelbelovende techniek die wij inzetten op plekken waar het daadwerkelijk waarde toevoegt voor klanten, de organisatie en collega’s. Bij de ontwikkeling en toepassing van ai kijken we niet alleen naar technologische mogelijkheden, maar ook naar de bredere gevolgen voor mens en maatschappij. Zo wordt bijvoorbeeld gelet op het energieverbruik van ai-systemen en het verantwoord gebruik van data en middelen, zoals koelwater van datacenters. Medewerkers worden gestimuleerd om ai bewust en doelgericht in te zetten, met efficiëntie en relevantie als uitgangspunt.Daarnaast benaderen we ai vanuit een bredere esg-visie. Ethische aspecten, transparantie en inclusiviteit worden meegenomen in ontwerp en besluitvorming. Ai moet bijdragen aan een toekomst die eerlijk, betrouwbaar en duurzaam is – zowel binnen de organisatie als in de dienstverlening aan klanten. Tot slot willen we benadrukken dat we ons ervan bewust zijn dat het gebruik van ai het werk verandert. Daarom besteden we, naast de ontwikkeling van ai-toepassingen en – tool, veel aandacht aan de veranderingen die dit met zich meebrengt. We kijken naar de nieuwe vaardigheden die hiervoor nodig zijn en bieden medewerkers diverse leerpaden om deze te ontwikkelen.’Dit artikel staat ook in Computable Magazine 2025 #6.
De onmisbare rol van technologie en menselijk bewustzijn bij beeldverificatie
4 weken
Wist je dat het aantal deepfakes wereldwijd op twee jaar tijd maar liefst zestien keer is toegenomen? Dankzij artificiële intelligence (ai) is het makkelijker dan ooit om een stem te imiteren of een gezicht na te maken en zo een overtuigende nepvideo te verspreiden. Dat kan leiden tot gevaarlijke situaties, zoals identiteitsfraude of het manipuleren van verkiezingscampagnes, zoals we al meerdere keren zagen in andere landen. Technologie in combinatie met menselijk bewustzijn wordt onmisbaar om de echtheid van beelden te controleren en misleiding te voorkomen.De snelle groei van deepfakes stelt onze wetgeving op de proef. Hoewel de GDPR persoonsgegevens beschermt en veel landen auteurs- en portretrecht toepassen, bieden die regels weinig houvast in een tijd waarin ai razendsnel en overtuigend beelden en stemmen kan nabootsen. In theorie mag niemand zonder toestemming deepfakes maken van een persoon. Het portretrecht blijft zelfs tot tien jaar na overlijden van kracht, waarna erfgenamen het recht nog kunnen inroepen. Maar ook dan blijft het ethisch discutabel om iemand digitaal tot leven te wekken, zelfs met toestemming. In de praktijk wordt het maken en verspreiden van deepfakes zelden vervolgd, mede omdat het steeds lastiger wordt om echte en gemanipuleerde beelden van elkaar te onderscheiden.   Niet alleen technologie, ook menselijk bewustzijnDe uitdaging rond het verifiëren kunnen we deels het hoofd bieden met behulp van technologie. Authenticatietechnologieën voegen bijvoorbeeld extra context toe aan beelden, zoals watermerken, tijdstempels, digitale handtekeningen, locatiegegevens en bewegingsinformatie.Ook openbare registers waarin ai-algoritmes worden geregistreerd, vergroten de controle op echtheid. Ze vermelden onder meer waarvoor een algoritme bedoeld is, wie het ontwikkelde en hoe het beveiligd is. Zo creëren ze transparantie en helpen ze deepfakes sneller te ontmaskeren. Deze authenticatiemiddelen en registers helpen om vast te stellen of beelden echt zijn en maakt ze zelfs bruikbaar als bewijs in rechtszaken.Train je medewerkers om afwijkende beelden te herkennen en verdachte situaties te meldenDeze technologieën zijn alleen effectief als mensen weten hoe ze ermee moeten omgaan. Train je medewerkers om afwijkende beelden te herkennen en verdachte situaties te melden, zodat manipulatie sneller aan het licht komt. Leer hen waarop ze moeten letten om te zien of een beeld echt is. Let bijvoorbeeld op onscherpe of vertraagde pixels, onnatuurlijke bewegingen van ogen, wenkbrauwen en mond, een te gladde huid of juist vreemd gerimpelde huid, afwijkende schaduwen en de lichtinval, of haperingen in het beeld. Zulke kleine details kunnen verraden dat een video mogelijk gemanipuleerd is of zelfs een deepfake betreft.Vooruitgang vraagt samenwerkingIedereen draagt verantwoordelijkheid voor een betrouwbare digitale wereld: bedrijven moeten open zijn over hoe ze beelden opslaan, verwerken en beveiligen, en transparant communiceren over hun gebruik van ai en cameratechnologie. Onderzoekers dienen continu te zoeken naar nieuwe methoden om de echtheid van beelden te controleren. Wetgevers moeten duidelijke en handhaafbare regels opstellen, zoals de AI Act, de Cyber Resilience Act, en richtlijnen als NIS2 en CER. Consumenten moeten kritisch blijven in wat ze zien en delen online. Die kritische blik begint al op school, waar kinderen en studenten moeten leren hoe ze (digitale) beelden kunnen beoordelen en begrijpen.Technologische ontwikkeling gaat vaak sneller dan regelgeving kan bijbenen. Daarom blijft een kritische houding van iedereen onmisbaar: waar komt het beeld vandaan? Is de bron betrouwbaar? En vertrouw je het genoeg om te delen? Bij twijfel, meld het bij de bron zelf, bijvoorbeeld via de meldfunctie van een sociaal mediaplatform of door contact op te nemen met de redactie van een publicatie. En twijfel je nog, verspreid het dan zeker niet verder. Alleen door alert te blijven en samen te werken, kunnen we de digitale wereld veilig en betrouwbaar houden.Erik Baeten is architect & engineering manager bij Axis Communications.
Nieuwe Europese richtlijnen voor platforms en privacy
4 weken
Nieuwe richtlijnen verduidelijken hoe grote online platforms tegelijk moeten voldoen aan de DMA en de AVG. De Europese Commissie en toezichthouders willen hiermee meer duidelijkheid bieden aan bedrijven en extra bescherming garanderen voor gebruikers.De Europese privacytoezichthouders (EDPB) en de Europese Commissie hebben nieuwe richtlijnen gepubliceerd over de samenhang tussen de Digital Markets Act (DMA) en de Algemene Verordening Gegevensbescherming (AVG). Grote platforms, zoals aanbieders van app-winkels, berichtendiensten en zoekmachines, krijgen hiermee meer houvast bij het naleven van beide wetten.De DMA bevat regels voor digitale ‘poortwachters’ met een sterke marktpositie. Zij moeten eerlijke concurrentie mogelijk maken door onder meer het koppelen van diensten te beperken en data te delen met andere aanbieders. Veel van deze verplichtingen raken direct aan de bescherming van persoonsgegevens, waardoor afstemming met de AVG noodzakelijk is.Richtlijnen voor bedrijven en gebruikersDe nieuwe richtlijnen leggen uit wanneer platforms expliciet toestemming moeten vragen voor het combineren van gegevens uit verschillende diensten. Ook wordt verduidelijkt hoe gebruikers transparant moeten worden geïnformeerd over het gebruik van hun data.Voor bedrijven bieden de richtlijnen praktische handvatten om hun verplichtingen onder de DMA uit te voeren zonder in strijd te komen met de AVG. Voor gebruikers betekent dit extra zekerheid dat hun privacyrechten ook gelden wanneer platforms aan de DMA-regels moeten voldoen.Consultatie tot vier decemberDe richtlijnen zijn nog in concept. Tot en met vier december 2025 kan iedereen reageren via een openbare consultatie op de website van de EDPB. Daarna wordt de definitieve versie vastgesteld.Volgens de toezichthouders is het doel om bedrijven duidelijkheid te geven en tegelijkertijd de positie van gebruikers te versterken: ‘veel van deze verplichtingen raken direct aan de bescherming van persoonsgegevens.’
Kort: Saas op de kop, twee derde bedrijven zegt ai-potentieel niet waar te maken (en meer)
4 weken
In dit nieuwsoverzicht: Ai-agents gooien de saas-markt om, klacht tegen Ierland om benoeming ex-Meta-lobbyist, Bending Spoons koopt AOL, Chinese groep hackt Europese diplomaten en twee derde bedrijven maakt ai-potentieel niet waar. Ai-agents gooien de saas-markt om Box-oprichter Aaron Levie voorziet honderd tot duizend keer meer ai-agents dan menselijke gebruikers, waardoor het traditionele per seat verdienmodel van saas niet houdbaar is. In plaats daarvan zullen consumptie- en volumemodellen de norm worden. Startups zonder bestaande processen hebben volgens hem een voordeel, omdat zij direct agent-first kunnen ontwerpen. Levie verwacht niet dat ai-agents de plaats innemen van enterprise saas, maar er bovenop draaien. Tijdens TechCrunch Disrupt 2025 stelde hij dat mission critical-processen deterministisch moeten blijven, omdat agents risico’s meebrengen zoals datalekken of onverwachte acties. Klacht tegen Ierland om benoeming ex-Meta-lobbyist De Irish Council for Civil Liberties (ICCL) heeft bij de Europese Commissie een klacht ingediend tegen Ierland vanwege de benoeming van een voormalig Meta-lobbyist tot data protection commissioner van het land. Volgens de ICCL schoot de selectieprocedure tekort in onafhankelijkheid en deskundigheid. De benoemde kandidaat zou geen technische of juridische expertise hebben en eerder actief hebben gelobbyd tegen strenge privacyregels. De selectiecommissie zelf bestond deels uit vertegenwoordigers met belangen in de technologiesector. Eerdere beslissingen van de Ierse toezichthouder zijn al herhaaldelijk door Europese instanties aangescherpt. Ierland is de Europese thuisbasis van Meta en bijna alle andere Big Tech. Ook Google, Apple, Microsoft, Amazon, Intel, Oracle, Salesforce en TikTok hebben er hun Europese of internationale hoofdkantoor. Bending Spoons koopt AOL De Italiaanse softwareontwikkelaar Bending Spoons neemt AOL over van Yahoo. De aankoop wordt gefinancierd met een schuldenpakket van 2,8 miljard dollar, dat ook toekomstige acquisities moet ondersteunen. Het overnamebedrag is niet bekendgemaakt, zo meldt The Register. Volgens het Italiaanse bedrijf heeft AOL acht miljoen dagelijkse en dertig miljoen maandelijkse actieve gebruikers, waarmee het tot de tien grootste e-maildiensten wereldwijd behoort. AOL is sinds 2001 meerdere keren van eigenaar gewisseld, van Time Warner tot Verizon en later Apollo Global Management. Yahoo stelt dat de verkoop ruimte geeft om zich te richten op de eigen kernproducten. Chinese groep hackt Europese diplomaten De Chinese groep UNC6384 heeft in september en oktober dit jaar diplomatieke doelwitten in België en Hongarije aangevallen, ontdekte Arctic Wolf Labs. De nog lopende campagne richt zich specifiek op diplomatieke instellingen en breidt nu uit naar andere Europese landen, waaronder Nederland. Men gebruikt de recent bekendgemaakte Windows-kwetsbaarheid ZDI-CAN-25373 in combinatie met spearphishing rond bijeenkomsten van de Europese Commissie en de NAVO. Via malafide lnk-bestanden werd een keten van PowerShell-scripts en dll-side-loading uitgevoerd, resulterend in de inzet van PlugX-malware. De infrastructuur vertoonde overlap met eerdere UNC6384-operaties en met de Chinese groep Mustang Panda. De aanvallen tonen snelle adoptie van nieuwe kwetsbaarheden en verfijnde social engineering, aldus Arctic Wolf. Twee derde bedrijven maakt ai-potentieel niet waar Bedrijven investeren dit jaar gemiddeld 26,7 miljoen dollar in ai, met een huidig rendement van zestien procent en een verwachte stijging naar 31 procent binnen twee jaar. Toch vindt 65 procent van de organisaties dat ai zijn potentieel nog niet waarmaakt. Dat concludeert SAP uit eigen onderzoek. Het bedrijf benadrukt dat integratie van data en processen cruciaal is, en waarschuwt voor shadow ai – het gebruik van ai-tools door medewerkers zonder toestemming of toezicht van de it-afdeling – dat door 77 procent als risico wordt gezien. Tijdens SAP NOW gisteren in Den Haag presenteerde het bedrijf de nieuwste agentic ai-oplossingen.
Hoe voorkom je ai-hallucinatie?
4 weken
Conversatie-ai-assistenten zoals Copilot, Claude en Gemini zijn krachtig, maar hun hallucinaties blijven een groot risico. Wat kunnen organisaties doen om dit gevaar technisch en organisatorisch te beperken zónder de voordelen te verliezen? Ai‑assistenten zijn razendsnel en overtuigend, maar juist dat maakt hun fouten verraderlijk. Een hallucinerende Copilot, Claude of Gemini is geen incidentje, maar een ingebakken eigenschap: het model vult gaten in met plausibele onzin. Voor organisaties die afhankelijk zijn van betrouwbare informatie creëert dat een reëel risico. De eerste stap is dus acceptatie: ja, ai-assistenten zúllen hallucineren. De echte aandacht? Hoe herken je hallucinaties, hoe beperk je ze en hoe maak je ze beheersbaar. Computable heeft dat op een rijtje gezet. Risico’s in de praktijk ‘Een onnauwkeurigheid in een juridisch document kan de uitkomst van een zaak beïnvloeden,’ waarschuwt onder andere het Amerikaanse ict-vakblad Computerworld. Zulke fouten kunnen niet alleen rechtszaken doen kantelen, maar ook investeerders afschrikken en beleidskeuzes ondermijnen. Onderzoek van Stanford University laat zien dat zulke ai-assistenten, algemene large language modellen (llm), in zo’n drie kwart van juridische queries hallucineren. Zelfs domeinspecifieke modellen geven in één op de drie of vier gevallen nog foutieve citaties. Deloitte rapporteerde dat vier op de tien executives verkeerde beslissingen nemen op basis van foutieve ai-output. Voor cio’s en risk officers betekent dit dat ai-governance niet optioneel is. Zonder controles en verificatieprocessen kan een enkele fout doorwerken in beleid, investeringsbeslissingen of juridische claims. Data en retrieval als fundament ‘Als de input verouderd of inconsistent is, kun je geen betrouwbare output verwachten’, verwoordt ai-beveiliger Knostic het bekende ‘garbage in, garbage out’. In de praktijk betekent dit dat organisaties hun kennisbanken net zo zorgvuldig moeten beheren als hun financiële administratie. Retrieval-augmented generation (rag) kan hallucinaties beperken, mits de pijplijn robuust is ingericht, legt de cybersecurityexpert uit. Dat betekent: vectorindexen opschonen, embeddings valideren, documentversies beheren en retrieval-resultaten monitoren. Zonder die discipline kan een oud hr-document zomaar als actuele regelgeving worden gepresenteerd. Wie rag inzet, moet dus niet alleen investeren in techniek, maar ook in processen voor datakwaliteit en monitoring. Alleen zo kan de belofte van betrouwbaardere output worden waargemaakt. Gebruikersgedrag maakt verschil ‘Als je vraagt om vijf voorbeelden terwijl er maar vier bestaan, gaat het model het ontbrekende voorbeeld gewoon verzinnen,’ illustreert OpenAI zelf de rol van de menselijk gebruiker bij hallucinerende ai’s. Zulke promptfouten ontstaan vaak onbewust, maar vergroten de kans dat medewerkers hallucinaties voor waar aannemen. Best practices voor gebruikers zijn daarom: hypothetische scenario’s expliciet markeren, abrupte onderwerpwisselingen vermijden en formuleren in termen van ‘tot vijf voorbeelden’ in plaats van een exact aantal. Ook helpt het om Copilot te instrueren in een zakelijke toon en contextuele informatie mee te geven. Voor organisaties betekent dit dat training in promptvaardigheden een noodzakelijke investering is, om de betrouwbaarheid van ai-output te vergroten. Zo adviseert Microsoft zelf de ICE-methode voor betere prompts: Instructies die direct en specifiek zijn, Condities om duidelijke grenzen te stellen (‘alleen uit deze documenten’) en Escalatie om terugvalgedrag te definiëren (zeg ‘Ik weet het niet’ als je het niet zeker weet’). Typen hallucinaties herkennen ‘Je kunt pas effectief mitigeren als je weet met welk type hallucinatie je te maken hebt,’ verdiept Microsoft de aanpak van foute ai’s. Pas dan kan er gericht naar een oplossing gezocht worden. Men onderscheidt zes typen hallucinatie: feitelijke, temporele, contextuele, linguïstische, extrinsieke en intrinsieke hallucinaties. Feitelijke fouten vragen om strakkere bronverificatie, temporele fouten om actuele datasets, linguïstische fouten om domeinspecifieke modellen. Ook hyperparameters spelen een rol: lagere temperatuurinstellingen (0,1–0,4) reduceren variatie en daarmee de kans op verzinsels. Door patronen in fouten te analyseren, kunnen organisaties gericht maatregelen nemen. Zo kan een team dat vooral contextuele hallucinaties ziet, de retrieval-pijplijn aanscherpen, terwijl linguïstische fouten juist vragen om gespecialiseerde modellen. Daarbij zet ai-expert Datamatics wel een belangrijke kanttekening: hoewel zulke specifiekere oplossingen (vaak small language models, slm genoemd) vaak betere antwoorden geven en doorgaans minder vatbaar zijn voor hallucineren, zijn ze zeker niet immuun. Governance boven techniek ‘Hallucinaties zijn geen productfouten die met een firmware-update kunnen worden gepatcht, maar een ontwerp- en governance-probleem,’ vat WindowsForum het allemaal samen. De focus moet verschuiven van techniek naar organisatiebrede borging. Het forum benadrukt dat governance-onderzoeken blijvende zorgen signaleren over provenance en databeheer, ondanks dat Copilot bijvoorbeeld gebruik maakt van tenant-grounding en gelicentieerde content. Voor organisaties betekent dit dat ze beleid moeten opstellen voor bronverplichting en groundedness-checks, logging en auditability, escalatieprocedures en rolgebaseerde toegang. Cruciaal is ook de menselijke factor: outputs in hoog-risico-domeinen moeten áltijd door experts worden nagekeken. Want hoe goed ook, elke ai-assistent ‘maakt fouten op onvoorspelbare momenten, kan waarheid niet van onwaarheid onderscheiden en heeft geen notie van betekenis,’ herhaalt Pascal Wiggers, sinds kort lector Responsible IT aan de Hogeschool van Amsterdam. ‘Deze tekortkomingen zullen nooit volledig verdwijnen. Nadenken is de enige remedie.’ To do’s om ai-hallucinaties te voorkomen:1: Duidelijke prompts Formuleer vragen zakelijk, concreet en met voldoende context: ‘ICE ICE baby!’.2: Betrouwbare bronnen Gebruik rag en koppel de ai-assistenten aan gecontroleerde databronnen.3: Redenering & verificatie Vraag om stap-voor-stap uitleg en controleer citaties en feiten.4: Hertraining & controle Verzamel feedback, hertrain de modellen en laat outputs in risicodomeinen nakijken door experts.5: Governance & opleiding Bouw processen in voor monitoring en train medewerkers in verificatievaardigheden. Verklarende woordenlijst voor ai-modellen Domeinspecifieke modellenAi-modellen die getraind zijn op data uit een specifieke sector of vakgebied.Bijvoorbeeld een medisch taalmodel voor radiologieverslagen, of een juridisch model voor contractanalyse. EmbeddingsNumerieke vectorrepresentaties van woorden, zinnen of documenten waarmee semantische overeenkomsten berekend kunnen worden.Bijvoorbeeld zoeken naar soortgelijke producten in een webshop, of clusteren van nieuwsartikelen. Gelicentieerde contentData of materiaal dat met toestemming en onder contractuele voorwaarden gebruikt wordt voor training of output.Bijvoorbeeld: een dataset van een uitgeverij, of stockfoto’s met gebruikslicentie. Groundedness-checksMechanismen om te controleren of een ai-antwoord gebaseerd is op betrouwbare bronnen of context.Bijvoorbeeld: verificatie dat een samenvatting overeenkomt met de originele tekst, of fact-checking tegen een kennisbank. Hallucinatie, de zes typen1. Contextuele: antwoord past niet bij de vraag. Bijvoorbeeld bij een vraag over netwerken een recept voor appeltaart geven.2. Extrinsieke: informatie wordt verzonnen die niet in de bron staat. Bijvoorbeeld een niet-bestaande auteur toevoegen aan een artikel.3. Feitelijke: feitelijke onjuistheden. Bijvoorbeeld zeggen dat Parijs in Duitsland ligt.4. Linguïstische: grammaticaal correct maar betekenisloos. Bijvoorbeeld “De kwantumwolk harmoniseert de semantische vector.”5. Intrinsieke: interne tegenstrijdigheden in het antwoord. Bijvoorbeeld eerst zeggen dat een bedrijf in 2010 is opgericht en later in dezelfde tekst 2015 noemen.6. Temporele: verkeerde tijdsaanduidingen. Bijvoorbeeld beweren dat Windows 95 in 2005 is uitgebracht. HyperparametersInstelbare waarden die het leerproces van een model sturen, maar niet door het model zelf geleerd worden.Bijvoorbeeld leersnelheid, of aantal lagen in een neuraal netwerk. ProvenanceHerkomst en traceerbaarheid van data of informatie.Bijvoorbeeld bronvermelding bij een dataset, of logbestanden die laten zien waar een document vandaan komt. Retrieval-augmented generation (rag)Techniek waarbij een model externe documenten ophaalt en combineert met generatieve output.Bijvoorbeeld een chatbot die actuele wetgeving ophaalt, of een zoekfunctie die documenten samenvat. TemperatuurParameter die de mate van creativiteit of variatie in modeluitvoer bepaalt.Bijvoorbeeld gebruik van lage temperatuur voor feitelijke antwoorden, of hoge temperatuur voor creatieve teksten. Tenant-groundingHet koppelen van ai-antwoorden aan de specifieke data en context van één organisatie of gebruiker.Bijvoorbeeld een ai-bedrijfsassistent die alleen interne documenten van dat bedrijf gebruikt. VectorindexenDatabasestructuren die embeddings opslaan en efficiënt doorzoekbaar maken.Voorbeeld: een vectorindex voor semantische zoekopdrachten in klantmails, een index voor beeldherkenning.
Vibe coding en het lot van de developer
4 weken
Vibe coding belooft dat iedereen software kan bouwen via ai, maar roept net als bij de opkomst van low-code vragen op over het lot van developers. De realiteit: low-code vangt ai-output in modellen, zodat snelheid en robuustheid samengaan. Én ontwikkelaars blijven nodig. Waar in 2015 de introductie van low- en no-code leidde tot verhitte debatten over de toekomst van softwareontwikkelaars, herhaalt die discussie zich nu bij vibe coding. Dit (relatief) nieuwe fenomeen, software schrijven in dialoog met artificiële intelligence (ai), wekt de indruk dat straks iedereen applicaties kan bouwen zonder programmeerkennis. Nvidia-topman Jensen Huang stelde zelfs dat programmeervaardigheden overbodig worden en dat iedereen programmeur kan zijn. Toch laten onderzoek en praktijk zien dat de werkelijkheid veel complexer is. Net zoals low-code destijds de rol van developers niet overbodig maakte maar juist veranderde, lijkt vibe coding eerder een aanvulling dan een vervanging. Wie echter terugkijkt naar de introductie van low-code ziet duidelijke parallellen. Ook toen fronsten software-engineers de wenkbrauwen. Kon een tool werkelijk applicaties genereren zonder diepgaande kennis van programmeertalen? Inmiddels zijn low-codeplatformen breed ingeburgerd. Ze versnellen de bouw van software en maken samenwerking tussen business en it concreter. Toch verdwenen ontwikkelaars niet. Integendeel, hun rol werd belangrijker, juist om prototypes en ideeën door te vertalen naar robuuste, schaalbare systemen. Met ai en vibe coding zien we eenzelfde patroon én kans. De hype is groot, maar de praktijk laat zien dat de menselijke factor cruciaal blijft. Developers doen meer dan programmeren Verhalen over productiviteitsschokken moeten allereerst genuanceerd worden. Uit onderzoek van METR blijkt dat ervaren ontwikkelaars gemiddeld negentien procent langer doen over hun werk wanneer zij ai-hulpmiddelen inzetten zoals Cursor Pro of Claude 3.5 en 3.7, vergeleken met collega’s die zonder ai werken. De verwachting dat ai bij softwareontwikkeling tot een kwart tijdswinst zou opleveren, kwam niet uit. De verklaring is dat ai-suggesties niet altijd correct zijn, gecontroleerd moeten worden en leiden tot extra contextwisselingen. Daarbij besteden ontwikkelaars slechts een beperkt deel van hun werkweek aan coderen. Documentatie, overleg, testen en governance slokken minstens zoveel tijd op. Ai die enkel code genereert, pakt die bottlenecks niet aan. Een van de opvallendste begrippen in deze discussie is vibe coding. De term, geïntroduceerd door ai-onderzoeker Andrej Karpathy (zie kader), verwijst naar softwareontwikkeling via trial-and-error in dialoog met een ai-omgeving. De gebruiker formuleert een opdracht, de ai genereert een voorstel, en in interactie wordt dat bijgestuurd. Vertaalslag naar productie is valkuil Voor niet-technische mensen is het een toegankelijke manier om ideeën snel tot leven te brengen. Toch schuilt de valkuil in de vertaalslag naar productie. Vibe coding is ideaal om iets tastbaars te laten zien, een prototype bijvoorbeeld, maar mist robuustheid. Codebases veranderen voortdurend, guardrails (richtlijnen en technische maatregelen om ai verantwoord te gebruiken, n.v.d.r.) zijn schaars en fouten stapelen zich op. ‘Het is makkelijk om tachtig procent van een applicatie te maken, maar de laatste twintig procent, foutafhandeling en compliance, kost tachtig procent van de tijd’, zegt Menno Odijk, field cto bij Mendix. Daarmee komt low-code nadrukkelijk in beeld. Odijk: ‘Waar vibe coding snelheid en creativiteit brengt, levert low-code de structuur om software ook werkelijk in productie te krijgen.’ Mendix kiest er bewust voor om ai niet direct code te laten schrijven, maar werkt via een soort visuele blauwdruk. In die blauwdruk leg je vast hoe de gegevens zijn opgebouwd (domeinmodellen), hoe de gebruikersschermen eruitzien en welke logica erachter schuilgaat. Het is als het ware een soort bouwtekening van de applicatie: duidelijk, overzichtelijk en begrijpelijk voor businessgebruikers zonder diepgaande programmeerkennis. “Waar vibe coding snelheid en creativiteit brengt, levert low-code de structuur om software ook werkelijk in productie te krijgen” – Menno Odijk, field cto Mendix Deze aanpak zorgt ervoor dat er altijd een heldere structuur is, waarbinnen ai kan meedenken en suggesties kan doen, licht Odijk verder toe. ‘De blauwdruk fungeert daarbij als een vangrail: beperkt in variatie en daardoor veiliger en beter traceerbaar.’ Hallucinaties worden zo voorkomen en de testtijd daalt aanzienlijk. Volgens Odijk kan low-code softwareontwikkeling nog twee keer sneller maken. Mendix onderscheidt twee sporen in het gebruik van ai, legt Odijk uit. ‘Enerzijds wordt ai ingezet voor de ontwikkelaar, met als doel sneller en slimmer software te bouwen met generatieve modellen. Anderzijds wordt ai aangeboden als bouwsteen binnen applicaties, bijvoorbeeld voor chatbots, agentic ai of sentimentanalyse.’ Belangrijk daarbij is dat Mendix geen eigen taalmodellen traint. Het platform biedt toegang tot bestaande modellen in de Mendix Managed Cloud of via connectors naar systemen van klanten. ‘Daarmee blijft de complexiteit van het ai-landschap behapbaar, zonder dat ontwikkelaars zich verliezen in keuzes tussen modellen en databronnen.’ Het gevaar van schaduw ai Een terugkerend obstakel zijn data. Ai is zo sterk als de input die het krijgt. Veel experimenten stranden omdat de kwaliteit of governance van data tekortschiet. Daarnaast dreigt shadow ai, waarbij medewerkers externe ai-diensten gebruiken zonder toestemming van het management. ‘Daardoor kunnen bedrijfsgegevens onbedoeld uitlekken of hergebruikt worden’, geeft Odijk aan. Governance en security van data worden steeds belangrijker, niet alleen om datalekken te voorkomen maar ook om zinvolle output te krijgen. Naast snelheid en innovatie speelt digitale soevereiniteit een steeds belangrijker rol. Europese organisaties willen minder afhankelijk zijn van Amerikaanse cloudproviders en meer grip krijgen op data en intellectueel eigendom. Mendix, sinds 2018 onderdeel van Siemens, benadrukt daarom de mogelijkheid om applicaties in de eigen cloud, in Europese infrastructuur of zelfs on-premises te draaien. ‘Klanten willen zelf in controle zijn en willen niet dat een derde de stekker eruit kan trekken’, zegt Odijk. Die vraag sluit aan bij bredere Europese initiatieven zoals Mistral (waar ASML is ingestapt), die bijdragen aan technologische autonomie. Herinnering aan dotcom-hype De huidige golf van ai-experimenten doet wellicht denken aan de dotcom-periode. Er is een sterke overtuiging binnen bedrijven dat iets met ai gedaan moet worden, maar vaak ontbreekt een solide businesscase, weet Odijk. ‘Toch is er een verschil met destijds. Waar toen gouden bergen werden beloofd, zijn de verwachtingen nu realistischer.’ Ai zal de manier van werken veranderen, maar niet iedereen overbodig maken. ‘Het gaat er ooit echt wel komen’, zegt Odijk over volledig ai-gedreven softwareontwikkeling. ‘Maar in de tussentijd is low-code een mooie tussenstap. We adopteren de concepten van vibe coding, maar voegen er altijd onze modellen en guardrails aan toe.’ Ai en vibe coding veranderen kortom inderdaad de manier waarop software wordt ontwikkeld, maar developers verdwijnen niet. Net als bij de opkomst van low-code blijft hun rol essentieel. De echte waarde ontstaat juist in de samenwerking tussen ai, low-code en menselijke expertise. Vibe coding levert snelheid en inspiratie, low-code brengt robuustheid en veiligheid, en mensen zorgen voor context, governance en keuzes. Wie is Andrej Karpathy en wat is vibe coding?Andrej Karpathy geldt als een van de invloedrijkste ai-onderzoekers van dit moment. Hij werkte bij OpenAI, was hoofd ai bij Tesla en geldt als een van de sleutelfiguren achter de doorbraak van deep learning in beeldherkenning en natuurlijke taalverwerking. Begin 2024 introduceerde Karpathy in een lezing en via sociale media de term vibe coding. Daarmee bedoelde hij het schrijven van software in dialoog met een ai-model: software is immers ook geschreven in een taal, dus waarom niet llm’s inzetten als taalmodel. De gebruiker formuleert daarbij een opdracht in natuurlijke taal, het ai-model genereert een voorstel en in een iteratief proces wordt de applicatie stap voor stap aangepast. Het concept sloeg snel aan, vooral omdat het de drempel voor niet-programmeurs verlaagde. In de praktijk is vibe coding vooral geschikt voor prototyping en ideevorming, maar de vertaalslag naar robuuste productieapplicaties blijft lastig. Guardrails ontbreken vaak en de foutgevoeligheid is hoog. Karpathy zelf ziet vibe coding als een belangrijke stap in de democratisering van softwareontwikkeling, maar benadrukt dat ‘enterprise-grade’ software voorlopig nog niet zonder menselijke expertise kan. Dit artikel staat ook in Computable Magazine 2025 #6.

Pagina's

Abonneren op computable