Nieuwsbrief week 36 2025

KNMG waarschuwt voor medische deepfakes

Artsenfederatie KNMG luidt de noodklok over de opkomst van medische deepfakes: levensecht gemanipuleerde video’s waarin gezichten en stemmen van artsen zonder toestemming worden gebruikt. Deze video’s worden ingezet om producten aan te prijzen of misleidende medische informatie te verspreiden. Volgens de artsenfederatie vormen ze een directe bedreiging voor de volksgezondheid én voor het vertrouwen in de medische beroepsgroep.

Door de snelle technologische ontwikkeling zijn deepfakes nauwelijks nog te onderscheiden van echt beeldmateriaal. Dit maakt het voor burgers steeds lastiger om betrouwbare medische informatie te onderscheiden van valse inhoud. Wie op basis van misleidende video’s verkeerde keuzes maakt, kan ernstige gezondheidsrisico’s lopen. Daarnaast schaadt het misbruik van identiteit de reputatie van artsen en ondermijnt het de vertrouwensrelatie met patiënten.

De KNMG roept overheid, online platforms en maatschappelijke organisaties op om gezamenlijk op te treden tegen productie en verspreiding van medische deepfakes. Heldere regels, strikte handhaving en effectieve verwijderprocedures zijn volgens de organisatie noodzakelijk. Ook pleit de KNMG voor meer bewustwording onder burgers, zodat manipulatie sneller wordt herkend.

 

“AP moet oordeel vellen over melding datalek Clinical Diagnostics”

Demissionair staatssecretaris Tielen zegt in een reactie op Kamervragen dat het aan de Autoriteit Persoonsgegevens (AP) is om te beoordelen of laboratorium Clinical Diagnostics het grote datalek tijdig heeft gemeld. Daarbij werden persoonsgegevens en medische gegevens van in totaal circa 850.000 mensen buitgemaakt door de hackersgroep Nova.

Het laboratorium zegt de AP binnen de wettelijke termijn te hebben geïnformeerd, maar critici wijzen erop dat Bevolkingsonderzoek Nederland pas een maand later op de hoogte werd gesteld. De AP is inmiddels een onderzoek gestart.

Volgens Tielen is het vrijwel onmogelijk om gegevens die eenmaal op het dark web zijn geplaatst volledig te verwijderen. Het beperken van schade kan alleen door slachtoffers zo snel mogelijk te informeren. Ook bevestigde zij dat systemen met ‘gericht beschikbaar stellen’ en logging nuttig zijn, maar dat deze geen bescherming bieden tegen hacks bij de bron.

 

Boete voor dierentuin om vingerafdrukscan

De Spaanse privacytoezichthouder AEPD heeft een dierentuin op Tenerife een boete van 250.000 euro opgelegd wegens onrechtmatige verwerking van biometrische gegevens. Bezoekers die eind 2022 een zogenoemd “twin ticket” kochten voor zowel de dierentuin als het bijbehorende waterpark moesten verplicht hun vingerafdruk laten scannen om toegang te krijgen.

Volgens de dierentuin was het systeem nodig om te controleren of dezelfde persoon beide parken bezocht. Daarbij werd zowel de QR-code van het ticket als een vingerafdrukscan gevraagd. De organisatie stelde dat de biometrische gegevens na het bezoek werden verwijderd en dat er geen sprake was van identificeerbare data, omdat alleen een tijdelijke template werd gebruikt.

De AEPD oordeelt echter dat vingerafdrukken altijd persoonsgegevens zijn en dat de AVG biometrische verwerking in beginsel verbiedt, tenzij aan specifieke uitzonderingen wordt voldaan. In dit geval kon niet worden uitgegaan van toestemming: de vrijwillige aankoop van een ticket betekent niet automatisch instemming met biometrische verwerking.

Daarnaast bleek dat de dierentuin geen verplichte Data Protection Impact Assessment (DPIA) had uitgevoerd, gasten niet waren geïnformeerd en ook minderjarigen onder het systeem vielen. De toezichthouder bestempelde het gebruik als disproportioneel, omdat minder ingrijpende alternatieven beschikbaar waren.

 

Meta sluit miljardendeal met Google voor AI-infrastructuur

Meta heeft een zesjarige overeenkomst gesloten met Google voor het gebruik van Google Cloud. Volgens bronnen van o.a. Reuters gaat het om een waarde van meer dan 10 miljard dollar. Meta zal servers, opslag, netwerkinfrastructuur en aanvullende clouddiensten afnemen.

Het is de eerste grote samenwerking tussen beide techbedrijven. Google Cloud geldt, naast Amazon Web Services en Microsoft Azure, als een van de drie dominante cloudplatforms. De deal moet Meta helpen om snel meer rekenkracht beschikbaar te krijgen voor de ontwikkeling en uitrol van AI-diensten.

Topman Mark Zuckerberg benadrukte eerder al dat Meta de komende jaren honderden miljarden wil investeren in kunstmatige intelligentie en datacenters. Omdat de eigen datacenters van Meta pas op langere termijn operationeel zijn, zoekt het bedrijf tijdelijk samenwerking met externe cloudleveranciers.

De overeenkomst volgt kort na een vergelijkbare deal waarbij OpenAI Google Cloud gaat gebruiken voor training en hosting van AI-modellen. Google Cloud rapporteerde recent een omzetstijging van 32 procent, mede dankzij de groeiende vraag naar AI-infrastructuur.

 

Onderzoek: AI-browser Perplexity kwetsbaar voor phishing

De Comet-browser van AI-aanbieder Perplexity blijkt slecht bestand tegen standaard phishingtactieken. Dat concludeert securitybedrijf Guardio na een praktijktest. De AI-agent herkende phishingmails niet, voerde op nepwebshops creditcardgegevens in en liet zich misleiden door een aangepaste variant van de ClickFix-scam, waarbij gebruikers ongemerkt kwaadaardige commando’s uitvoeren.

Volgens Guardio zijn AI-browsers mogelijk nog kwetsbaarder voor scams dan menselijke gebruikers. Omdat de software online taken zelfstandig uitvoert, zoals het openen van websites en afhandelen van aankopen, hebben gebruikers vaak geen zicht op risicovol gedrag. In de test doorliep Comet drie scenario’s: een phishingmail van een zogenoemde bank, een nagemaakte webshop en een speciaal ontwikkelde PromptFix-aanval waarbij schadelijke code werd verborgen in een nepcaptcha.

Guardio concludeert dat beveiligingsmaatregelen in Comet ontbreken of inconsistent zijn. Daardoor kan de AI-browser namens gebruikers frauduleuze transacties uitvoeren zonder dat zij het doorhebben.

 

Ministerie lanceert toolkit over hergebruik van zorgdata

Het ministerie van Volksgezondheid, Welzijn en Sport (VWS) heeft een communicatietoolkit ontwikkeld om burgers, patiënten en zorgprofessionals beter uit te leggen wat secundair datagebruik inhoudt: het hergebruik van gezondheidsgegevens voor onderzoek, innovatie en beleid. De toolkit bevat materialen zoals posters, flyers, visuals, animaties en presentaties, en verwijst naar het publieksplatform gegevensverbeterenlevens.nl, dat informatie in begrijpelijke B1-taal biedt.

De introductie sluit aan bij de invoering van de European Health Data Space (EHDS). Deze verordening trad op 26 maart 2025 formeel in werking, maar de meeste bepalingen gaan pas tussen 2027 en 2029 daadwerkelijk gelden. De EHDS moet ervoor zorgen dat medische gegevens veilig en betrouwbaar kunnen worden uitgewisseld, ook grensoverschrijdend. Daarnaast verplicht de regeling leveranciers van elektronische patiëntendossiers hun systemen beter op elkaar af te stemmen. Voor patiënten en zorgverleners betekent dit snellere toegang tot actuele informatie en minder administratieve lasten. Ook het hergebruik van gegevens voor onderzoek en innovatie wordt structureel geregeld.

 

Datalek bij welzijnsorganisatie door mailfout

Welzijnsorganisatie WijZijn uit Steenbergen heeft per ongeluk 500 e-mailadressen van mantelzorgers openbaar gemaakt. In een mailing over het failliete Groupcard werden de adressen zichtbaar in het aan-veld in plaats van via bcc. Ontvangers konden daardoor elkaars adres inzien.

De organisatie spreekt van een menselijke fout en heeft het incident gemeld bij de Autoriteit Persoonsgegevens. Ontvangers kregen een herstelmail met het verzoek de eerdere e-mail te verwijderen. Volgens woordvoerder Toine de Krosse is het incident aanleiding om opnieuw te kijken naar interne processen, training en technische mogelijkheden.

De gemeente Steenbergen is geïnformeerd en benadrukt dat de juiste stappen worden gevolgd. Ook de gemeente betreurt de fout. De AP wijst erop dat het delen van e-mailadressen niet onschuldig hoeft te zijn, omdat dit tot ongewenst gebruik kan leiden.

 

Rijksoverheid meldt weinig gebruik van hoog risico-AI

Uit een inventarisatie van de stichting Algorithm Audit blijkt dat de rijksoverheid slechts 13 van de 370 gebruikte algoritmes als “hoog risico AI-systeem” classificeert. Tien daarvan vallen onder het ministerie van Justitie en Veiligheid. Het aantal ligt aanzienlijk lager dan de schatting van de Europese Commissie, die verwacht dat circa 15 procent van de systemen in deze categorie hoort.

De analyse is gebaseerd op 14 departementale brieven aan de Tweede Kamer, opgesteld volgens een format van het ministerie van BZK. Daarin rapporteren de ministeries zowel hoog risico AI-systemen als zogenoemde impactvolle algoritmes. In totaal werden er 250 impactvolle algoritmes gemeld, vooral bij Financiën. Voorbeelden zijn beslisregels rond toeslagen of douaneprocedures. Deze vallen niet onder de strenge regels van de EU AI Act, maar moeten wel in het algoritmeregister worden opgenomen.

Volgens Algorithm Audit is de interpretatie van wat onder hoog risico-AI valt niet eenduidig. Zo werd het AI-systeem MONOcam, dat automobilisten controleert op telefoongebruik, door Justitie als impactvol algoritme aangemerkt. De stichting stelt dat dit eigenlijk als hoog risico-AI moet worden gezien.

Delen: