computable

127 nieuwsberichten gevonden
Kort: Mobiel netwerk VodafoneZiggo vernieuwd, dislikes voor Bluesky (en meer)
3 weken
In dit nieuwsoverzicht: Mobiel netwerk Nederland van VodafoneZiggo gemoderniseerd en energiezuiniger, Yellowtail Conclusion neemt Faraday over, CBS ziet link tussen ai-gebruik, bedrijfsgrootte en ict-investeringen, dislikes voor Bluesky en Zuid eerste Webflow Enterprise Partner in Benelux. Mobiel netwerk Nederland gemoderniseerd en energiezuiniger Drieduizend locaties in Nederland van VodafoneZiggo gaan de komende drie jaar gemoderniseerd worden met technologie van Ericsson. Daarbij wordt de 3,5 GHz-frequentie uitgerold en bestaande infrastructuur vernieuwd, zo meldt Ericsson. Het Zweedse bedrijf levert daarvoor de TDD Massive MIMO-radio AIR 3255 die tot drieënzestig procent minder energie verbruikt en 58 procent lichter is dan de voorganger. Het programma moet de capaciteit en prestaties van het netwerk verbeteren en tegelijk bijdragen aan de duurzaamheidsdoelen. De werkzaamheden omvatten levering, installatie en beheer van het volledige netwerklandschap en lopen de komende drie jaar door. Yellowtail Conclusion neemt Faraday over Het Naardense Yellowtail Conclusion, onderdeel van Conclusion, neemt digital agency Faraday over, zo melden beide. De overname versterkt de positie van de nieuwe moeder in digitale transformatie voor financiële instellingen zoals pensioenfondsen, banken en verzekeraars. De nieuwe dochter brengt expertise in gebruikersgericht design en ai-technologie mee, waarmee organisaties hun klantreis kunnen optimaliseren. Beide bedrijven blijven voorlopig onder eigen naam opereren. Faraday heeft ruim vijftien jaar ervaring binnen sectoren met complexe regelgeving. Conclusion bestaat uit meer dan dertig Nederlandse expertbedrijven en begeleidt organisaties bij businesstransformatie en it-services. CBS: bedrijven die ai gebruiken zijn vaker groot en investeren vaker in ict Elf procent van de bedrijven die in 2024 ai gebruikten had 250 of meer werknemers, tegen drie procent bij bedrijven zonder ai, zo concludeert het CBS uit eigen onderzoek. Verder blijkt uit die cijfers dat bedrijven met ai vaker investeren in ict: 79 procent deed dat in 2023, tegenover 70 procent zonder ai. Veertien procent van de ai-bedrijven investeerde meer dan tweehonderd miljoen euro, tegen vier procent bij bedrijven zonder ai. Wat verder opviel is dat bedrijven met ai vaker patenten aanvragen dan die zonder, vijf procent tegen respectievelijk één procent in 2021. Dislikes voor Bluesky Bluesky heeft een aantal nieuwe functies aangekondigd. Onder meer een volgers-only reply-instelling, mod lists en de mogelijkheid om quote posts los te koppelen. Het bedrijf test daarnaast reply-ranking op basis van sociale nabijheid, een dislikes-functie als feedbacksignaal en verbeterde detectie van toxische of spamreacties. Ook wordt de reply-knop aangepast zodat gebruikers eerst de hele thread zien, wat contextverlies moet voorkomen. Verder krijgen reply-instellingen een duidelijkere interface. Het platform maakte ook bekend inmiddels veertig miljoen gebruikers te hebben. (X heeft meer dan zeshonderd miljoen gebruikers, waarvan zo’n 250 miljoen dagelijkse). Zuid eerste Webflow enterprise partner in Benelux Het Tilburgse Zuid is benoemd tot eerste grote Webflow enterprise partner in de Benelux. De status is de hoogste binnen dat partnerprogramma voor het moderniseren van digitale landschappen met schaalbare oplossingen. Het bureau werkt al jaren met het low-code platform en heeft zijn dienstverlening uitgebouwd tot een volledig Webflow-aanbod, zo zegt het. De software stelt marketeers in staat websites zelfstandig te beheren, terwijl developers zich richten op integraties en innovaties.
Verplicht scannen tegen kinderporno geschrapt omwille van privacy
3 weken
Het Deense EU-voorzitterschap trekt een omstreden voorstel in dat techbedrijven zou verplichten privéberichten te scannen op materiaal van seksueel misbruik van kinderen. Nederland, Duitsland en zelfs de eigen regeringspartij waren tegen de plannen. De Deense minister van Justitie Peter Hummelgaard bevestigde volgens Deense media dat het opsporingsmandaat geen onderdeel meer is van het nieuwe compromisvoorstel: ‘Het blijft vrijwillig voor techgiganten om dergelijk materiaal op te sporen.’ Hummelgaard leidt de onderhandelingen over de CSA-verordening (ook wel CSAR, Child Sexual Abuse Regulation), die nog tot het einde van het jaar onder Deens voorzitterschap valt. De CSA-verordening werd in 2022 door de Europese Commissie voorgesteld en zou bedrijven kunnen verplichten om ook versleutelde berichten te scannen. Volgens critici zou dit leiden tot massa­toezicht en een inbreuk op fundamentele rechten. Duitsland sprak eerder expliciet van ‘massasurveillance’. Te streng toezicht te controversieel Hoewel Hummelgaard benadrukt dat het Deense voorstel minder ingrijpend was dan het oorspronkelijke plan van de Commissie, bleef steun uit. ‘Het Chatcontrol voorstel was zeer controversieel. In essentie zouden onder het voorstel alle online berichten automatisch worden gecontroleerd op mogelijke sexuele content van minderjarigen,’ verduidelijkt Stephan Mulders, advocaat bij Blenheim in Amsterdam, aan Computable. ‘Dat is niet alleen een verplichte doorbreking van de end-to-end encryptie, maar ook een vorm van massasurveillance, die een ernstige inbreuk op de privacy vormt.’ ‘De Nederlandse regering heeft dan ook verklaard Chatcontrol niet te steunen, hetgeen waarschijnlijk mede de reden is dat Denemarken heeft besloten Chatcontrol uit de richtlijn te halen.’ Ook Duitsland en zelfs de Deense regeringspartij Moderaterne trokken de steun in. Daarmee ontbrak de noodzakelijke meerderheid. Laat Big Tech vrijwillig scannen Kinderrechtenorganisaties als Red Barnet, Unicef en Børns Vilkår steunden het voorstel wel. Zij wezen op het risico dat een belangrijk opsporingsinstrument verdwijnt, omdat de huidige regeling voor vrijwillige scanning in april 2026 afloopt. Door de verplichting te schrappen hoopt Denemarken dat het gewijzigde wetsvoorstel tegen online kindermisbruik alsnog snel wordt goedgekeurd en er geen hiaat onstaat rond het opsporen van beelden van kindermisbruik. Mulders: ‘Onder het nieuwe voorstel is controle nog steeds mogelijk, maar niet langer verplicht.’ Overigens noemde Red Barnet zulke vrijwillige opsporing tot nu toe ‘een groot succes’
Tech als kans, veiligheid als voorwaarde in onderwijs
3 weken
De digitale transformatie blijft onderwijs en onderzoek ingrijpend veranderen. Ai, cloud en kwantum bieden kansen, maar vergroten ook risico’s. SURF benadrukt in Tech Trends 2026 dat samenwerking, veiligheid en autonomie cruciaal zijn om deze ontwikkelingen verantwoord te benutten. De digitale transformatie dendert door het Nederlandse onderwijs en onderzoek. Ai, cloud- en kwantumtechnologie beloven ongekende mogelijkheden, maar brengen ook nieuwe kwetsbaarheden en afhankelijkheden met zich mee. Terwijl instellingen experimenteren met slimme toepassingen in de klas en het lab, groeit de druk om publieke waarden, autonomie en veiligheid te bewaken. SURF, de ict-coöperatie van Nederlandse onderwijs- en onderzoeksinstellingen, schetst in Tech Trends 2026 (pdf) hoe samenwerking en duidelijke kaders onmisbaar zijn om deze technologische golf in goede banen te leiden. Wat valt daarin op? Digitale transformatie: ai als infrastructuur én als risico Ai wordt door SURF benoemd als systeemtechnologie die alle lagen van de digitale stack beïnvloedt. Binnen onderwijs en onderzoek leidt dit tot automatisering van lesplanning, feedback en administratieve processen. Tegelijkertijd ontstaan nieuwe afhankelijkheden van leveranciers en infrastructuur. Tom Hoven, woordvoerder van SURF, benadrukt echter tegen Computable: ‘Als SURF gaan wij niet over invulling van tech binnen het klaslokaal. De vorm en toepassing daarvan ligt bij onze leden zelf, die kunnen op basis van hun didactische onderwijsconcept zelf keuzes maken hierin.’ De inzet van ai vereist digitale vaardigheden, ethische kaders en robuuste governance. Een concreet voorbeeld is de toepassing van ai in online leeromgevingen, waar het wordt ingezet voor interactie en ondersteuning, maar waar het ook risico’s met zich meebrengt zoals geautomatiseerd spieken en deepfakes. SURF wijst daarom op de noodzaak van veilige ai-pijplijnen en strategieën die operationele veiligheid waarborgen. Ook interdisciplinair onderwijs krijgt aandacht, bijvoorbeeld rond slimme implantaten in de gezondheidszorg. Universiteiten en ziekenhuisonderzoeksgroepen werken bijvoorbeeld aan technologieën die traditionele metalen implantaten vervangen, wat vraagt om nieuwe curricula en samenwerking tussen disciplines. Om deze transformatie verantwoord vorm te geven, pleit SURF voor sectorbrede kaders voor ai-gebruik, met expliciete aandacht voor publieke waarden, autonomie en digitale vaardigheden. Digitale veiligheid: van cybersecurity tot databeheer De inzet van ai, iot en cloud-technologie vergroot de complexiteit van cybersecurity. Onderzoeksinstellingen profiteren van ai voor dreigingsmodellering en netwerkmonitoring, maar lopen ook risico door open access-beleid en internationale samenwerking. Hoven: ‘Datacapaciteit en cybersecurity zijn beide belangrijke onderwerpen waar we als sector en coöperatie hard aan werken.’ Privacyverhogende technologieën zoals federated learning* en synthetische data worden toegepast in projecten bij het AMC, SVB en UWV. Deze maken veilige datadeling mogelijk zonder directe toegang tot brondata. Tegelijkertijd vraagt dit om investeringen in infrastructuur en expertise. Ook datamanagement verandert: ai automatiseert taken zoals kwaliteitscontrole en integratie, maar vereist hoogwaardige en semantisch rijke data. SURF benadrukt dat instellingen hun digitale weerbaarheid moeten versterken door te investeren in crypto-agility, pet’s (privacy enhancing technologies) en semantische datakwaliteit. Dit vraagt om structurele samenwerking, technische vernieuwing en beleidsmatige verankering. Digitale autonomie: cloud, data spaces en identiteit De afhankelijkheid van Amerikaanse hyperscalers blijft groot. Europese alternatieven zoals EOSC en NextCloud worden wel ingezet, maar structurele afhankelijkheid blijft volgens SURF een risico. Tegelijkertijd groeit de behoefte aan veilige datadeling via gestandaardiseerde data spaces en TRUST*-principes. Ondertussen evolueert digitale identiteit via de EUDI Wallet en Self-Sovereign Identity, met organisatorische wallets als nieuwe norm voor samenwerking en compliance. Als voorbeeld van de geopolitieke urgentie noemt SURF de European Chips Act, die moet bijdragen aan technologische autonomie. De organisatie wijst op de noodzaak van een Europees microchip-ecosysteem, mede vanwege de afhankelijkheid van Aziatische productie en de schaarste aan grondstoffen. Volgens SURF is het noodzakelijk dat instellingen actief kiezen voor Europese cloud-alternatieven, TRUST- en FAIR*-principes breed implementeren, en infrastructuur opbouwen voor veilige digitale identiteit en datadeling. Dit versterkt de autonomie en veerkracht van de sector. Want, zo stelt Hoven, ‘vooral samenwerking binnen de sector als uniek punt maakt ons sterk.’ * Begrippenlijstje:– federated learning: ai trainen op lokale data en alleen die inzichten delen met centrale server.– FAIR-principe: findable, accessible, interoperable, reusable.– TRUST-principe: transparency, reliability, user control, security, trustworthiness.
Escalatie intern conflict bij Nexperia
4 weken
Nexperia Nijmegen heeft deze week de levering van wafers aan zijn assemblagefabriek in het Chinese Dongguan stopgezet. Dat blijkt uit een brief aan klanten, ingezien door persbureau Reuters.  Interim-CEO Stefan Tilger stelt dat het besluit voortkomt uit het niet-nakomen van contractuele betalingsverplichtingen door het lokale management in China. De Europese organisatie wil de levering aan de Chinese vestigingen pas hervatten als die weer aan hun contractuele verplichtingen voldoen, aldus de brief. Nexperia Nijmegen voegde eraan toe dat ‘de beslissing geen intentie weerspiegelde om zich terug te trekken uit haar locatie in Dongguan of de Chinese markt als geheel’.  Tekort elektronische componenten De auto-industrie huivert nu de verhoudingen intern bij Nexperia verder verslechteren. Zonder deze halffabricaten (wafers) die als basis dienen voor de productie van chips, zal het tekort aan deze elektronische componenten verder oplopen. China had al de export verboden van chips die in Chinese Nexperia-fabrieken zijn geproduceerd en bestemd zijn voor Europa.  De regering in Beijing deed dat in een reactie op het besluit van demissionair minister Vincent Karremans (Economische Zaken) om de controle over Nexperia naar zich toe te trekken. Hij vond dat nodig omdat kennis en intellectueel eigendom naar China dreigden weg te lekken. Tegelijk onthief de Amsterdamse Ondernemingskamer CEO Zhang Xuezheng, tevens grootaandeelhouder, tijdelijk uit zijn functie. Politieke relatie Den Haag ontkent enige betrokkenheid bij de leveringsstop van wafers aan China. Het Europese management heeft deze maatregel geheel eigenhandig genomen. De Nederlandse Staat intervenieert alleen als de productiecapaciteit in Europa in gevaar komt.  De politieke relatie tussen Nederland en China is dicht bij het vriespunt beland. Nederland voert overleg met andere Europese regeringen waaronder Duitsland, de Europese Commissie en de Chinese autoriteiten. Vrijdag heeft eurocommissaris Henna Virkkunen (technologie) vergaderd met de leiding van Nexperia. Ze werkt toe naar een diplomatieke doorbraak. Intussen wordt ook gekeken naar korte en middellange termijn-maatregelen ter overbrugging van de tekorten aan het soort chips dat Nexperia maakt. De Volkswagen Groep heeft nog voor een week voorraad. Een toeleverancier als ZF Friedrichshafen heeft al ploegendiensten moeten schrappen. Om toch maar aan Nexperia-chips te komen betalen sommige afnemers wel 25 keer zoveel voor bepaalde chips als normaal.
Ai bij verzekeraar Achmea
4 weken
Repeterende klussen op- en afschalenDe Praktijk – Bij verzekeraar Achmea is de toepassing van ai een belangrijk en integraal onderdeel van de strategie en versnelt het de uitvoering van groeiplannen. Computable praat erover met Arnoud Boere, programmamanager AI bij Achmea.‘De nieuwe generatie ai-technologie biedt veel mogelijkheden om de klanten van Centraal Beheer, Interpolis, Zilveren Kruis en onze andere merken nog beter van dienst te zijn en onze collega’s te ondersteunen in hun werk. Daarbij is ai geen doel op zich, maar een middel om onze klanten sneller, persoonlijker en betrouwbaarder te helpen en om de meest vertrouwde financiële dienstverlener te zijn én te blijven. Dankzij de eerder ingezette rationalisatie van onze ict-systemen en de vrijwel afgeronde migratie naar de cloud, leggen we de basis om ai nog breder toe te passen en onze service verder te verbeteren’, zegt Arnoud Boere, programmamanager AI bij Achmea.Welke verzekeringsprocessen zijn geschikt om door ai-agents te worden uitgevoerd?‘Ai-agents hebben binnen de verzekeringsbranche veel potentieel voor processen of taken die kennis- en data-intensief zijn, veel herhaling kennen of gebaseerd zijn op duidelijke regels. Denk aan het afhandelen van schadeclaims, het beantwoorden van klantvragen via chatbots en het verwerken van mutaties in de polisadministratie, zoals adreswijzigingen of de aanpassing van dekking. Dit zijn processen die voor de klant het liefst snel moeten worden afgehandeld en die voor de verzekeraar eenvoudig op- of afgeschaald moeten kunnen worden. De ai-agents kunnen werk uit handen nemen en zorgen voor snelheid en consistentie.’Wat doen jullie al met ai-agents?‘Wij zijn actief bezig met het verkennen en ontwikkelen van ai-agents. Deze worden gezien als digitale assistenten die geheel of gedeeltelijk zelfstandig taken kunnen uitvoeren. Ze gaan verder dan traditionele chatbots en robotic process automation-scripts: ai-agents zijn contextbewust, kunnen plannen, leren en samenwerken.Ons uitgangspunt is dat er altijd sprake is van een ‘human in the loop’. Daarmee bedoelen we dat ai-toepassingen altijd worden gebruikt in combinatie met checks and balances waarbij mensen betrokken zijn. Zo voorkomen we eventuele ‘computer says no’-issues. Het gaat om een nieuwe technologie die nauwgezet gevolgd en gecontroleerd moet worden.Een concreet voorbeeld is een lopend onderzoek naar een zogeheten security-agent. Deze agent analyseert netwerkverkeer op pogingen van hackers om kwetsbaarheden uit te buiten. Door patronen te herkennen met behulp van ai, stelt de agent passende acties voor aan securityspecialisten, zoals het afsluiten van poorten of het verhogen van monitoring.De hier ontwikkelde techniek heeft potentieel voor bredere toepassingen waarbij snel en adequaat reageren op complexe data cruciaal is, bijvoorbeeld governance en controle.Verder onderzoeken we actief nieuwe toepassingen en testen die binnen verschillende bedrijfsfuncties, zoals schade-afhandeling, risicobeoordeling, klantinteractie en documentanalyse. De ambitie is om ai-agents alleen in te zetten waar ze daadwerkelijk waarde toevoegen en niet als gimmick.’Hoe check je ai en wat doe je als die fouten maakt?‘We nemen onze verantwoordelijkheid als financiële dienstverlener uiterst serieus. Daarom wordt streng gelet op veiligheid, transparantie en compliance. Alle denkbare technische maatregelen worden genomen, zoals het toevoegen van contentfilters en testprocedures, denk aan red teaming, om risico’s te beperken, en het borgen dat ai-modellen gedeactiveerd kunnen worden wanneer deze niet goed functioneren.Wij hanteren een strikt toetsingskader, gebaseerd op wettelijke vereisten zoals de AI Act en ethische richtlijnen zoals de Unesco AI-principes. Daarnaast wordt het NIST AI Risk Management Framework gebruikt als referentie om de volledigheid van beheersmaatregelen te toetsen. Elk ai-systeem bij ons wordt vooraf gecontroleerd en tijdens gebruik gemonitord en geëvalueerd.Er vinden ethische én juridische toetsen plaats. Juridisch wordt onder andere gekeken naar naleving van de AI Act en de AVG: is de verwerking van gegevens rechtmatig, zijn de risico’s voldoende ingeschat, en is de besluitvorming uitlegbaar? Ook wordt beoordeeld of het systeem voldoet aan interne richtlijnen zoals het Ethisch Kader Datagedreven Besluitvorming dat we samen met het Verbond van Verzekeraars hebben ontwikkeld. Bij fouten is er altijd een vangnet.Dat betekent dat er menselijke tussenkomst mogelijk is bij bepaalde uitkomsten, bijvoorbeeld wanneer een ai-systeem een claim afwijst of een risicoscore toekent. Er zijn duidelijke verantwoordingslijnen: het is vooraf vastgelegd wie verantwoordelijk is voor het ontwerp, het gebruik en het toezicht op het ai-systeem. Zo kan bij een incident snel worden vastgesteld waar het misging en wie actie moet ondernemen. Op deze manier borgen wij dat ai veilig, transparant en verantwoord wordt ingezet.’“Ai wordt niet als losstaand ict-project gezien, maar als organisatiebrede ontwikkeling die samenwerking tussen vakgebieden vereist”Hoe borg je als bedrijf de uitlegbaarheid van ai?‘Achmea legt over de gehele verwerkingsketen digitale sporen vast van hoe beslissingen tot stand komen, zodat de datakwaliteit geborgd kan worden. Hierdoor kan worden aangetoond dat het ai-systeem correct functioneerde.’Risicomanagement valt meestal onder de cfo, maar ai is ook ict, dus dat valt onder de cio. En het betreft security, dus de ciso is betrokken en dan is er nog legal… hoe doen jullie dat?‘We zien dat een verantwoordelijke inzet van ai vraagt om een brede betrokkenheid van disciplines uit ons bedrijf, met ons Responsible AI framework als basis. Het gaat dan bijvoorbeeld om samenwerking tussen compliance, risk management, it, legal en security. Daarom hebben wij centrale sturing en governance ingericht, met vertegenwoordigers van al deze rollen. Zo wordt ai integraal aangestuurd, met aandacht voor risico, technologie, veiligheid en juridische aspecten. Ai wordt op deze manier niet als losstaand ict-project gezien, maar als organisatiebrede ontwikkeling die samenwerking tussen vakgebieden vereist.’Wat komt er nog meer kijken bij toepassing van ai in de organisatie?‘Ai is een veelbelovende techniek die wij inzetten op plekken waar het daadwerkelijk waarde toevoegt voor klanten, de organisatie en collega’s. Bij de ontwikkeling en toepassing van ai kijken we niet alleen naar technologische mogelijkheden, maar ook naar de bredere gevolgen voor mens en maatschappij. Zo wordt bijvoorbeeld gelet op het energieverbruik van ai-systemen en het verantwoord gebruik van data en middelen, zoals koelwater van datacenters. Medewerkers worden gestimuleerd om ai bewust en doelgericht in te zetten, met efficiëntie en relevantie als uitgangspunt.Daarnaast benaderen we ai vanuit een bredere esg-visie. Ethische aspecten, transparantie en inclusiviteit worden meegenomen in ontwerp en besluitvorming. Ai moet bijdragen aan een toekomst die eerlijk, betrouwbaar en duurzaam is – zowel binnen de organisatie als in de dienstverlening aan klanten. Tot slot willen we benadrukken dat we ons ervan bewust zijn dat het gebruik van ai het werk verandert. Daarom besteden we, naast de ontwikkeling van ai-toepassingen en – tool, veel aandacht aan de veranderingen die dit met zich meebrengt. We kijken naar de nieuwe vaardigheden die hiervoor nodig zijn en bieden medewerkers diverse leerpaden om deze te ontwikkelen.’Dit artikel staat ook in Computable Magazine 2025 #6.
De onmisbare rol van technologie en menselijk bewustzijn bij beeldverificatie
4 weken
Wist je dat het aantal deepfakes wereldwijd op twee jaar tijd maar liefst zestien keer is toegenomen? Dankzij artificiële intelligence (ai) is het makkelijker dan ooit om een stem te imiteren of een gezicht na te maken en zo een overtuigende nepvideo te verspreiden. Dat kan leiden tot gevaarlijke situaties, zoals identiteitsfraude of het manipuleren van verkiezingscampagnes, zoals we al meerdere keren zagen in andere landen. Technologie in combinatie met menselijk bewustzijn wordt onmisbaar om de echtheid van beelden te controleren en misleiding te voorkomen.De snelle groei van deepfakes stelt onze wetgeving op de proef. Hoewel de GDPR persoonsgegevens beschermt en veel landen auteurs- en portretrecht toepassen, bieden die regels weinig houvast in een tijd waarin ai razendsnel en overtuigend beelden en stemmen kan nabootsen. In theorie mag niemand zonder toestemming deepfakes maken van een persoon. Het portretrecht blijft zelfs tot tien jaar na overlijden van kracht, waarna erfgenamen het recht nog kunnen inroepen. Maar ook dan blijft het ethisch discutabel om iemand digitaal tot leven te wekken, zelfs met toestemming. In de praktijk wordt het maken en verspreiden van deepfakes zelden vervolgd, mede omdat het steeds lastiger wordt om echte en gemanipuleerde beelden van elkaar te onderscheiden.   Niet alleen technologie, ook menselijk bewustzijnDe uitdaging rond het verifiëren kunnen we deels het hoofd bieden met behulp van technologie. Authenticatietechnologieën voegen bijvoorbeeld extra context toe aan beelden, zoals watermerken, tijdstempels, digitale handtekeningen, locatiegegevens en bewegingsinformatie.Ook openbare registers waarin ai-algoritmes worden geregistreerd, vergroten de controle op echtheid. Ze vermelden onder meer waarvoor een algoritme bedoeld is, wie het ontwikkelde en hoe het beveiligd is. Zo creëren ze transparantie en helpen ze deepfakes sneller te ontmaskeren. Deze authenticatiemiddelen en registers helpen om vast te stellen of beelden echt zijn en maakt ze zelfs bruikbaar als bewijs in rechtszaken.Train je medewerkers om afwijkende beelden te herkennen en verdachte situaties te meldenDeze technologieën zijn alleen effectief als mensen weten hoe ze ermee moeten omgaan. Train je medewerkers om afwijkende beelden te herkennen en verdachte situaties te melden, zodat manipulatie sneller aan het licht komt. Leer hen waarop ze moeten letten om te zien of een beeld echt is. Let bijvoorbeeld op onscherpe of vertraagde pixels, onnatuurlijke bewegingen van ogen, wenkbrauwen en mond, een te gladde huid of juist vreemd gerimpelde huid, afwijkende schaduwen en de lichtinval, of haperingen in het beeld. Zulke kleine details kunnen verraden dat een video mogelijk gemanipuleerd is of zelfs een deepfake betreft.Vooruitgang vraagt samenwerkingIedereen draagt verantwoordelijkheid voor een betrouwbare digitale wereld: bedrijven moeten open zijn over hoe ze beelden opslaan, verwerken en beveiligen, en transparant communiceren over hun gebruik van ai en cameratechnologie. Onderzoekers dienen continu te zoeken naar nieuwe methoden om de echtheid van beelden te controleren. Wetgevers moeten duidelijke en handhaafbare regels opstellen, zoals de AI Act, de Cyber Resilience Act, en richtlijnen als NIS2 en CER. Consumenten moeten kritisch blijven in wat ze zien en delen online. Die kritische blik begint al op school, waar kinderen en studenten moeten leren hoe ze (digitale) beelden kunnen beoordelen en begrijpen.Technologische ontwikkeling gaat vaak sneller dan regelgeving kan bijbenen. Daarom blijft een kritische houding van iedereen onmisbaar: waar komt het beeld vandaan? Is de bron betrouwbaar? En vertrouw je het genoeg om te delen? Bij twijfel, meld het bij de bron zelf, bijvoorbeeld via de meldfunctie van een sociaal mediaplatform of door contact op te nemen met de redactie van een publicatie. En twijfel je nog, verspreid het dan zeker niet verder. Alleen door alert te blijven en samen te werken, kunnen we de digitale wereld veilig en betrouwbaar houden.Erik Baeten is architect & engineering manager bij Axis Communications.
Nieuwe Europese richtlijnen voor platforms en privacy
4 weken
Nieuwe richtlijnen verduidelijken hoe grote online platforms tegelijk moeten voldoen aan de DMA en de AVG. De Europese Commissie en toezichthouders willen hiermee meer duidelijkheid bieden aan bedrijven en extra bescherming garanderen voor gebruikers.De Europese privacytoezichthouders (EDPB) en de Europese Commissie hebben nieuwe richtlijnen gepubliceerd over de samenhang tussen de Digital Markets Act (DMA) en de Algemene Verordening Gegevensbescherming (AVG). Grote platforms, zoals aanbieders van app-winkels, berichtendiensten en zoekmachines, krijgen hiermee meer houvast bij het naleven van beide wetten.De DMA bevat regels voor digitale ‘poortwachters’ met een sterke marktpositie. Zij moeten eerlijke concurrentie mogelijk maken door onder meer het koppelen van diensten te beperken en data te delen met andere aanbieders. Veel van deze verplichtingen raken direct aan de bescherming van persoonsgegevens, waardoor afstemming met de AVG noodzakelijk is.Richtlijnen voor bedrijven en gebruikersDe nieuwe richtlijnen leggen uit wanneer platforms expliciet toestemming moeten vragen voor het combineren van gegevens uit verschillende diensten. Ook wordt verduidelijkt hoe gebruikers transparant moeten worden geïnformeerd over het gebruik van hun data.Voor bedrijven bieden de richtlijnen praktische handvatten om hun verplichtingen onder de DMA uit te voeren zonder in strijd te komen met de AVG. Voor gebruikers betekent dit extra zekerheid dat hun privacyrechten ook gelden wanneer platforms aan de DMA-regels moeten voldoen.Consultatie tot vier decemberDe richtlijnen zijn nog in concept. Tot en met vier december 2025 kan iedereen reageren via een openbare consultatie op de website van de EDPB. Daarna wordt de definitieve versie vastgesteld.Volgens de toezichthouders is het doel om bedrijven duidelijkheid te geven en tegelijkertijd de positie van gebruikers te versterken: ‘veel van deze verplichtingen raken direct aan de bescherming van persoonsgegevens.’

Pagina's

Abonneren op computable