De snelle opkomst van generatieve AI en grote taalmodellen (LLMs) zoals GPT, Claude en Gemini stelt organisaties voor een fundamentele uitdaging: hoe waarborg je de privacy van gebruikers wanneer deze systemen grootschalig tekst genereren, verwerken en interpreteren?
Vanuit deze urgentie heeft de European Data Protection Board (EDPB) het rapport AI Privacy Risks & Mitigations – Large Language Models (LLMs) (pdf) laten opstellen door Isabel Barberá. Doel van dit rapport is om organisaties — van ontwikkelaars tot beleidsmakers — praktische handvatten te bieden voor het identificeren, beoordelen en beheersen van privacyrisico’s bij het gebruik van LLMs.
Inzicht in modellen en toepassingen
Het rapport start met een heldere uitleg van wat LLMs zijn en hoe ze technisch functioneren (transformerarchitecturen, tokenisatie, embeddings, fine-tuning). Het onderscheidt drie dominante gebruiksmodellen:
- LLM-as-a-Service (zoals OpenAI via een API)
- Kant-en-klare modellen die intern worden aangepast
- Volledig intern ontwikkelde modellen
Vanuit gebruikersperspectief noem ik deze in mijn colleges en lezingen ook wel: taker, maker en shaper.
Elk model kent unieke datastromen en risico’s. Bij API-diensten speelt bijvoorbeeld het loggen van gebruikersinput een rol, terwijl zelfontwikkelde modellen kwetsbaar zijn voor gebrekkige beveiliging of het gebruik van ongetoetste trainingsdata.
Privacyrisico’s per fase in de AI-lifecycle
Privacyrisico’s ontstaan in elke fase van de AI-lifecycle (zie ISO/IEC 22989) — van dataverzameling en modeltraining tot gebruik, feedbackloops en uiteindelijke decommissioning:
- Onvoldoende geanonimiseerde trainingsdata
- Logging van gebruikersinput zonder toestemming
- Outputs die persoonlijke informatie onthullen
- Onbedoelde memorisatie van data
- Prompt injection-aanvallen
- Gebrek aan transparantie over dataherkomst
Verantwoordelijkheid per dienstmodel
Afhankelijk van het gekozen gebruiksmodel verschuiven ook de juridische verantwoordelijkheden:
- API-gebruik: jij bent vaak verwerkingsverantwoordelijke (controller), de aanbieder is verwerker (processor)
- Zelf gehost en aangepast model: je bent mogelijk zowel verwerkingsverantwoordelijke als verwerker
Rollen per dienstmodel (GDPR & AI Act):

Complexiteit bij geavanceerde AI-toepassingen
Systemen die informatie ophalen (Retrieval-Augmented Generation of RAG) of zelfstandig acties uitvoeren (agentic AI) vergroten de risico’s aanzienlijk, vooral op de applicatielaag:
- Onvoorziene data-uitwisseling met externe tools
- Prompt injection-aanvallen
- Accumulatie van persoonsgegevens in geheugenmodules
Tools voor risicobeheersing
Het rapport introduceert twee praktische modellen:
- FRASP: Factors for Risk Assessment in AI Systems Privacy – beoordeelt risico’s op kans en impact
- AI-RML: AI Risk Management Lifecycle – koppelt mitigatie aan elke fase van de AI-lifecycle
Beide modellen helpen om risico’s vroegtijdig te signaleren en gestructureerd aan te pakken. FRASP maakt een DPIA (Data Protection Impact Assessment) concreet: in plaats van abstracte risico’s benoem je waar, wanneer en hoe iets fout kan gaan, en wat de impact is. AI-RML integreert privacyrisicobeheersing in de volledige levenscyclus van een AI-systeem — dus niet alleen tijdens de ontwikkeling, maar ook bij gebruik, onderhoud, updates en beëindiging.
Praktische aanbevelingen
Wie AI inzet, draagt ook verantwoordelijkheid. De volgende vijf aanbevelingen helpen om privacyrisico’s bij het gebruik van grote taalmodellen concreet, systematisch en doordacht aan te pakken — van ontwerp tot gebruik en onderhoud:
- Begrijp het model én de context: Begrijp hoe het model werkt, waar data wordt verwerkt en welk modeltype je gebruikt.
- Analyseer de AI-lifecycle: Gebruik ISO/IEC 22989 als checklist voor risico-identificatie per fase.
- Pas het juiste dienstmodel toe: Weet welke rol jij en de aanbieder spelen onder de GDPR en AI Act.
- Wees extra waakzaam bij RAG en agentic AI: Hier ontstaan risico’s die verder gaan dan het model zelf.
- Beheer risico’s proactief: Gebruik FRASP en AI-RML. Evalueer continu het ‘residual risk’.
Tot slot
De kernboodschap van het rapport is duidelijk: privacy by design is geen luxe, maar een noodzakelijkheid. Tegelijk zijn veel beschermingsmaatregelen nog onvolwassen, zoals betrouwbare anonimisering of verdediging tegen prompt injection. Daarom pleit het rapport voor voortdurende monitoring én samenwerking tussen aanbieders, gebruikers en toezichthouders. LLMs zijn niet neutraal: hoe ze worden gebouwd en toegepast, bepaalt of ze publieke waarden als privacy, autonomie en transparantie respecteren. Dit rapport is dan ook geen eindpunt, maar een oproep tot ethisch en strategisch leiderschap in een tijdperk van versnellende AI-innovatie.
1 reactie
Heel erg bedankt voor dit mooie stuk over mijn publicatie! Fijn om te zien dat het zo helder en duidelijk wordt uitgelegd.
Groeten, Isabel Barberá