AEPD publiceert uitgebreide richtsnoeren over agentic AI en gegevensbescherming: wat FG''s moeten weten
Agentic AI is niet langer een theoretisch concept. De AEPD heeft een richtsnoer van 81 pagina''s gepubliceerd waarin de uitdagingen op het gebied van gegevensbescherming door agentic AI worden behandeld — een van de eerste uitgebreide regelgevende publicaties in de EU over dit onderwerp.
Hier is de vertaling in het Nederlands, met inachtneming van alle specificaties:
Inleiding
Agentische AI is geen theoretisch concept meer dat alleen in onderzoeksartikelen voorkomt. Organisaties zetten al AI-systemen in die autonoom taken plannen, bedrijfsdatabases raadplegen, interacties aangaan met externe diensten en beslissingen uitvoeren met minimale menselijke tussenkomst. De privacy-implicaties zijn aanzienlijk — en tot voor kort was er vrijwel geen regelgevende richtsnoeren over hoe deze systemen onder de AVG moeten worden beheerd.
Dit veranderde op 18 februari 2026, toen de Spaanse gegevensbeschermingsautoriteit (Agencia Española de Protección de Datos, of AEPD) een richtsnoer van 81 pagina''s publiceerde dat specifiek ingaat op de uitdagingen voor gegevensbescherming door agentische AI. Dit is een van de eerste uitgebreide regelgevende publicaties in de EU die direct het snijvlak van autonome AI-agents en privacywetgeving behandelt.
Voor functionarissen voor gegevensbescherming (FG''s) is dit richtsnoer essentieel leesvoer. Zelfs als uw organisatie buiten Spanje actief is, is de analyse van de AEPD gebaseerd op de AVG — wat het direct relevant maakt voor de hele Europese Economische Ruimte en daarbuiten. Dit artikel behandelt de belangrijkste punten, belicht de meest praktische aanbevelingen en schetst concrete stappen die FG''s moeten nemen.
Wat is agentische AI volgens de AEPD?
De AEPD definieert agentische AI als systemen die grote taalmodellen (LLM''s) gebruiken om specifieke doelstellingen te bereiken door hun gedrag aan te passen op basis van veranderende doelen en omstandigheden in de omgeving. Dit is een bewuste en precieze afbakening — het onderscheidt agentische AI van eenvoudige chatbot-interfaces of statische, op regels gebaseerde automatisering.
Het richtsnoer identificeert zes kenmerkende eigenschappen van agentische AI:
- Autonomie — Het systeem opereert zelfstandig en neemt beslissingen zonder stap-voor-stap instructies van mensen.
- Waarneming van de omgeving — Het verwerkt en interpreteert gegevens uit zijn werkomgeving (e-mails, agenda''s, databases, API''s, webcontent).
- Handelingsbekwaamheid — Het beperkt zich niet tot aanbevelingen; het voert acties uit. Het kan e-mails versturen, reizen boeken, gegevens aanpassen of workflows activeren.
- Proactiviteit — Het anticipeert op behoeften en initieert acties in plaats van te wachten op expliciete opdrachten.
- Planning en redenering — Het breekt complexe doelen op in subtaken en ordent deze logisch.
- Geheugen en aanpassingsvermogen — Het behoudt context over sessies heen en past zijn gedrag aan op basis van eerdere interacties.
Om dit concreet te maken, gebruikt de AEPD een praktijkvoorbeeld in het hele richtsnoer: een AI-agent die belast is met het regelen van een zakenreis voor een werknemer. Deze ene agent raadpleegt autonoom de agenda van de werknemer, neemt contact op met hotels, koopt vliegtickets, houdt weersomstandigheden in de gaten en past plannen dienovereenkomstig aan. Het voorbeeld is bewust gekozen — het is alledaags genoeg om realistisch aan te voelen, maar brengt direct de complexiteiten van gegevensbescherming aan het licht. Bij het uitvoeren van een enkele taak verwerkt de agent persoonsgegevens uit meerdere bronnen, gaat hij interacties aan met diensten van derden, neemt hij beslissingen die van invloed zijn op de betrokkene en bewaart hij informatie over langere tijd.
Wat het richtsnoer omvat
Het AEPD-document is grondig. Het plaatst agentische AI tegenover de kernverplichtingen en operationele vereisten van de AVG, en behandelt:
- Rollen van verwerkingsverantwoordelijke en verwerker — Wie is de verwerkingsverantwoordelijke wanneer een AI-agent autonoom een dienst van een derde inschakelt? Het richtsnoer onderzoekt hoe het traditionele kader van verwerkingsverantwoordelijke en verwerker onder druk komt te staan bij autonome multi-agent-architecturen waarbij een AI-systeem, en niet een mens, subverwerkers selecteert.
- Transparantieverplichtingen — Hoe verstrekt u zinvolle informatie aan betrokkenen wanneer het besluitvormingsproces van de AI-agent ondoorzichtig of emergent is? Het richtsnoer benadrukt dat transparantie moet reiken tot de logica van de agent, niet alleen tot het bestaan van geautomatiseerde verwerking.
- Rechten van betrokkenen — Het uitoefenen van rechten zoals inzage, verwijdering of rectificatie wordt aanzienlijk complexer wanneer persoonsgegevens verspreid zijn over het geheugen van een agent, aanroepen van externe tools en systemen van derden.
- Verwerkingsregister — Agentische AI bemoeilijkt het bijhouden van het verwerkingsregister omdat de agent dynamisch nieuwe verwerkingsactiviteiten kan creëren die bij het ontwerp niet waren voorzien.
- Geautomatiseerde besluitvorming — Implicaties van artikel 22 AVG wanneer agents beslissingen nemen of hierop een wezenlijke invloed uitoefenen die individuen raken.
- Gegevensbeschermingseffectbeoordelingen (GEB''s) — Het richtsnoer maakt duidelijk dat de inzet van agentische AI vrijwel zeker een GEB vereist op grond van artikel 35, gezien de systematische monitoring, grootschalige verwerking en nieuwe technologie die ermee gemoeid zijn.
- Beheer van datalekken — Hoe lekken te detecteren, in te perken en te melden in systemen waar de AI-agent zelf het aanvalsvector of de kwetsbaarheid kan zijn.
Privacykwetsbaarheden: Het aanvalsoppervlak is anders
Een van de meest waardevolle onderdelen van het AEPD-richtsnoer is de gedetailleerde analyse van privacykwetsbaarheden die specifiek zijn voor agentische AI. Het document categoriseert risico''s in drie groepen:
Geautoriseerde risico''s (Risico''s door legitiem gebruik)
Zelfs wanneer het systeem werkt zoals bedoeld, introduceert agentische AI privacyrisico''s die traditionele systemen niet kennen. De AEPD benadrukt:
- Gebrek aan verantwoordingsplicht — Wanneer een AI-agent autonoom meerdere acties aan elkaar koppelt, wordt het moeilijk om specifieke verwerkingsbeslissingen toe te schrijven aan een verantwoordelijk persoon.
- Slecht beheer van gegevenstoegang — Agents hebben vaak brede toegang tot gegevens nodig om effectief te functioneren, wat spanning veroorzaakt met het principe van minimale gegevensverwerking.
- "Schaduwlek-exfiltratie" — Een bijzonder zorgwekkend concept: de agent kan tijdens normaal gebruik onbedoeld persoonsgegevens lekken naar externe diensten of contexten, zonder kwaad opzet. Zo kan een agent die een hotel-API bevraagt, bijvoorbeeld dieetbeperkingen, gezondheidsinformatie of reispatronen van werknemers doorgeven aan een derde zonder daar expliciet opdracht voor te krijgen.
Ongeautoriseerde risico''s (Aanvalsvectoren)
Het richtsnoer somt specifieke aanvalsvectoren op die uniek zijn voor of versterkt worden door agentische architecturen:
- Promptinjectie — Het manipuleren van de instructies van de agent via speciaal vervaardigde invoergegevens.
- Geheugenvergiftiging — Het corrumperen van het persistente geheugen van de agent om toekomstig gedrag te beïnvloeden.
- Sessiekaping — Het overnemen van een actieve agentsessie om zijn acties te sturen.
- Escalatie van bevoegdheden — Misbruik maken van de toegangsrechten van de agent om gegevens of systemen te bereiken die buiten de beoogde reikwijdte vallen.
Veerkrachtrisico''s
- Afhankelijkheid van externe diensten — Agentische AI is vaak afhankelijk van API''s van derden, clouddiensten en modelleveranciers. Verstoring of compromittering van een schakel in de keten kan een domino-effect hebben.
- Denial of Service-aanvallen — Het richten op de infrastructuur van de agent om de werking te verstoren of terugvalgedrag te forceren dat minder privacybeschermend kan zijn.
Wat dit betekent voor FG''s
Het AEPD-richtsnoer brengt een duidelijke boodschap over: de FG moet vroegtijdig en substantieel betrokken worden bij elke inzet van agentische AI. Dit is geen kwestie van compliance afvinken.
Bestuur moet op maat zijn
Het richtsnoer pleit voor een op maat gemaakt informatiebeheerkader — geen generiek AI-beleid dat op bestaande documentatie wordt geplakt. De FG moet een belangrijke architect van dit kader zijn, ervoor zorgend dat het inspeelt op de specifieke kenmerken van agentische systemen: hun autonomie, hun geheugen, hun vermogen om externe diensten in te schakelen en hun capaciteit om dynamisch nieuwe verwerkingsactiviteiten te creëren.
Continue evaluatie, geen eenmalige beoordeling
Traditionele compliance-aanpakken — voer een GEB uit, documenteer deze, evalueer jaarlijks — schieten tekort voor agentische AI. De AEPD beveelt continue, op bewijzen gebaseerde evaluatie aan, inclusief geautomatiseerde monitoring van agentgedrag, regelmatige benchmarking tegen verwachte uitkomsten en zinvolle menselijke toezicht. Dit verandert de rol van de FG van periodieke beoordelaar naar continue monitor.
Gegevensminimalisatie vereist actieve handhaving
Agentische AI-systemen zijn van nature datahongerig. Ze presteren beter met meer context, meer geheugen, meer toegang. De AEPD is expliciet: organisaties moeten strikte bewaartermijnen hanteren, onnodige persistente opslag uitschakelen en Data Loss Prevention (DLP)-tools inzetten om schaduwlek-exfiltratie te voorkomen. De FG moet de stem zijn die aandringt op deze beperkingen, zelfs wanneer ze ten koste gaan van de prestaties van de agent.
Menselijk toezicht moet zinvol zijn
Het richtsnoer benadrukt herhaaldelijk zinvol menselijk toezicht in elke fase van de pijplijn — geen rubberen-stempelgoedkeuring, maar echte beoordeling door iemand die zowel de verwerking als de implicaties ervan begrijpt. Voor gevoelige of hoogrisicoacties beveelt de AEPD aan om expliciete menselijke goedkeuring te vereisen voordat de agent ze uitvoert.
Praktische actiepunten voor FG''s
Op basis van het AEPD-richtsnoer en de analyse van Alston & Bird volgen hier concrete stappen die FG''s nu moeten nemen:
1. Inventariseer inzet van agentische AI (inclusief schaduwinzet). Breng elk geval in kaart waarin AI-agents met enige autonomie opereren binnen uw organisatie. Dit omvat officieel goedgekeurde tools en — cruciaal — alle niet-officiële of experimentele inzet door individuele teams. U kunt niet beheren wat u niet kent.
2. Voer GEB''s uit of werk deze bij specifiek voor usecases van agentische AI. Generieke GEB''s voor AI volstaan niet. Elke inzet van agentische AI vereist een beoordeling die specifiek ingaat op de zes door de AEPD geïdentificeerde kenmerken: autonomie, waarneming van de omgeving, handelingsbekwaamheid, proactiviteit, planning/redenering en geheugen. Besteed bijzondere aandacht aan paden voor schaduwlek-exfiltratie en de reikwijdte van bevoegdheden.
**3. Stel een regime voor continue monitoring