AEPD offentliggør omfattende vejledning om agentisk AI og databeskyttelse: Hvad DPO''er skal vide
Agentisk AI er ikke længere et teoretisk koncept. AEPD har udgivet en 81-siders vejledningsdokument, der adresserer databeskyttelsesudfordringer forbundet med agentisk AI — et af de første omfattende reguleringsdokumenter i EU om dette emne.
Introduktion
Agentisk AI er ikke længere et teoretisk koncept begrænset til forskningsartikler. Organisationer implementerer allerede AI-systemer, der selvstændigt planlægger opgaver, tilgår virksomhedsdatabaser, interagerer med eksterne tjenester og udfører beslutninger med minimal menneskelig indblanding. Privatlivsmæssige implikationer er betydelige — og indtil for nylig var der stort set ingen regulatorisk vejledning om, hvordan man skal styre disse systemer i henhold til GDPR.
Det ændrede sig den 18. februar 2026, da den spanske databeskyttelsesmyndighed (Agencia Española de Protección de Datos, eller AEPD) udgav et 81-siders vejledningsdokument, der specifikt adresserer de databeskyttelsesmæssige udfordringer, som agentisk AI medfører. Dette er en af de første omfattende regulatoriske publikationer i EU, der direkte tager fat på skæringspunktet mellem autonome AI-agenter og privatlivslovgivning.
For databeskyttelsesansvarlige (DPO''er) er denne vejledning essentiel læsning. Selvom din organisation opererer uden for Spanien, er AEPD''s analyse grundlagt i GDPR — hvilket gør den direkte relevant i hele Det Europæiske Økonomiske Samarbejdsområde og udenfor. Dette indlæg gennemgår de vigtigste punkter, fremhæver de mest anvendelige anbefalinger og beskriver konkrete skridt, som DPO''er bør tage som svar.
Hvad er agentisk AI ifølge AEPD?
AEPD definerer agentisk AI som systemer, der bruger store sprogmodeller (LLMs) til at opnå specifikke mål ved at tilpasse deres adfærd baseret på udviklende mål og omgivelsesforhold. Dette er en bevidst og præcis formulering — den adskiller agentisk AI fra simplere chatbot-grænseflader eller statisk regelbaseret automatisering.
Vejledningen identificerer seks definerende karakteristika ved agentisk AI:
- Autonomi — Systemet opererer selvstændigt og træffer beslutninger uden at kræve trin-for-trin menneskelig instruktion.
- Omgivelsesopfattelse — Det indtager og fortolker data fra sin operationsmiljø (emails, kalendere, databaser, API''er, webindhold).
- Handlingskapacitet — Det anbefaler ikke blot; det udfører. Det kan sende emails, booke rejser, ændre poster eller udløse arbejdsgange.
- Proaktivitet — Det forudser behov og initierer handlinger i stedet for at vente på eksplicitte kommandoer.
- Planlægning og ræsonnement — Det nedbryder komplekse mål til delopgaver og sekvenserer dem logisk.
- Hukommelse og tilpasningsevne — Det bevarer kontekst på tværs af sessioner og justerer adfærd baseret på tidligere interaktioner.
For at gøre dette konkret bruger AEPD et praktisk eksempel gennem hele vejledningen: en AI-agent, der er ansvarlig for at administrere en medarbejders forretningsrejse. Denne enkeltagent tilgår selvstændigt medarbejderens kalender, kontakter hoteller, køber flybilletter, overvåger vejrforhold og justerer planer i overensstemmelse hermed. Eksemplet er bevidst valgt — det er hverdagsagtigt nok til at føles realistisk, men det fremhæver straks kompleksiteten i databeskyttelsen. I løbet af en enkelt opgave behandler agenten personoplysninger fra flere kilder, interagerer med tredjepartstjenester, træffer beslutninger, der påvirker den registrerede, og bevarer information over tid.
Hvad dækker vejledningen?
AEPD-dokumentet er grundigt. Det kortlægger agentisk AI i forhold til kerneforpligtelser og operationelle krav i GDPR og dækker:
- Dataansvarlige og databehandlere — Hvem er den dataansvarlige, når en AI-agent selvstændigt engagerer en tredjepartstjeneste? Vejledningen undersøger, hvordan det traditionelle dataansvarlig-databehandler-framework bliver udfordret under autonome multi-agent-arkitekturer, hvor et AI-system, ikke et menneske, vælger underbehandlere.
- Gennemsigtighedsforpligtelser — Hvordan giver man meningsfuld information til de registrerede, når AI-agentens beslutningsproces er uigennemsigtig eller emergent? Vejledningen understreger, at gennemsigtighed skal udstrækkes til agentens logik, ikke kun eksistensen af automatiseret behandling.
- De registreredes rettigheder — Udførelse af rettigheder som adgang, sletning eller rettelse bliver væsentligt mere kompleks, når personoplysninger er distribueret på tværs af en agents hukommelse, eksterne værktøjskald og tredjepartssystemer.
- Behandlingsaktivitetsregistre (ROPAs) — Agentisk AI komplicerer vedligeholdelsen af ROPA''er, fordi agenten dynamisk kan skabe nye behandlingsaktiviteter, der ikke var forudset på designstadiet.
- Automatiseret beslutningstagning — Implikationer af artikel 22 i GDPR, når agenter træffer eller væsentligt påvirker beslutninger, der berører enkeltpersoner.
- Databeskyttelsesvurderinger (DPIAs) — Vejledningen gør det klart, at implementering af agentisk AI næsten med sikkerhed vil udløse kravet om en DPIA i henhold til artikel 35, givet den systematiske overvågning, storskala behandling og nye teknologi, der er involveret.
- Håndtering af databrud — Hvordan man opdager, inddæmmer og rapporterer brud i systemer, hvor AI-agenten selv kan være vektoren eller sårbarheden.
Privatlivssårbarheder: Angrebsfladen er anderledes
En af de mest værdifulde sektioner i AEPD''s vejledning er dens detaljerede analyse af privatlivssårbarheder specifikke for agentisk AI. Dokumentet kategoriserer risici i tre distinkte grupper:
Autoriserede risici (risici fra legitim brug)
Selv når de fungerer som designet, introducerer agentisk AI privatlivsrisici, som traditionelle systemer ikke gør. AEPD fremhæver:
- Mangel på ansvarlighed — Når en AI-agent selvstændigt kæder flere handlinger sammen, bliver det svært at tilskrive specifikke behandlingsbeslutninger til et ansvarligt menneske.
- Dårlig adgangsstyring til data — Agenter kræver ofte bred dataadgang for at fungere effektivt, hvilket skaber spændinger med principet om mindste privilegium.
- "Skyggelekkage-ekstrahering" — Et særligt bekymrende koncept: agenten kan utilsigtet lække personoplysninger til eksterne tjenester eller kontekster under normal drift, uden nogen ond hensigt. For eksempel kan en agent, der forespørger et hotel-API, overføre medarbejderes diætrestriktioner, sundhedsoplysninger eller rejsemønstre til en tredjepart uden nogen eksplicit instruktion om at gøre det.
Uautoriserede risici (angrebsvektorer)
Vejledningen katalogiserer specifikke angrebsvektorer, der er unikke for eller forstærket af agentiske arkitekturer:
- Prompt-injektion — Manipulering af agentens instruktioner gennem konstruerede inputdata.
- Hukommelsesforgiftning — Korruption af agentens persistente hukommelse for at ændre fremtidig adfærd.
- Sessionkapring — Overtagelse af en aktiv agentsession for at omdirigere dens handlinger.
- Privilegieeskalering — Udbnyttelse af agentens adgangstilladelser til at nå data eller systemer ud over den tilsigtede ramme.
Resilienrisici
- Afhængighed af eksterne tjenester — Agentisk AI er ofte afhængig af tredjeparts-API''er, cloudtjenester og modeludbydere. Afbrydelse eller kompromittering af ethvert led i kæden kan kaskadere.
- Denial of Service-angreb — Målrettet mod agentens infrastruktur for at forstyrre driften eller tvinge fallback-adfærd, der kan være mindre privatlivsbeskyttende.
Hvad dette betyder for DPO''er
AEPD''s vejledning sender et klart budskab: DPO''en skal involveres tidligt og substantielt i enhver implementering af agentisk AI. Dette er ikke en compliance-afkrydsningsøvelse.
Styring skal være skræddersyet
Vejledningen opfordrer til en skræddersyet informationsstyringsramme — ikke en generisk AI-politik, der blot tilføjes eksisterende dokumentation. DPO''en bør være en nøglearkitekt for denne ramme og sikre, at den adresserer de specifikke karakteristika ved agentiske systemer: deres autonomi, deres hukommelse, deres evne til at engagere eksterne tjenester og deres kapacitet til dynamisk at skabe nye behandlingsaktiviteter.
Kontinuerlig evaluering, ikke engangsvurdering
Traditionelle compliance-tilgange — udfør en DPIA, dokumenter den, gennemgå årligt — er utilstrækkelige for agentisk AI. AEPD anbefaler kontinuerlig evidensbaseret evaluering, herunder automatiseret overvågning af agentadfærd, regelmæssig benchmarking mod forventede resultater og meningsfuld menneskelig tilsyn. Dette skifter DPO''ens rolle fra periodisk gennemganger til løbende overvåger.
Dataminimering kræver aktiv håndhævelse
Agentiske AI-systemer er naturligt datahungrende. De fungerer bedre med mere kontekst, mere hukommelse, mere adgang. AEPD er eksplicit: organisationer skal implementere strenge databevaringspolitikker, deaktivere unødvendig persistent lagring og deployere Data Loss Prevention (DLP)-værktøjer for at forhindre skyggelekkage-ekstrahering. DPO''en må være den stemme, der insisterer på disse begrænsninger, selv når de reducerer agentens ydeevne.
Menneskeligt tilsyn skal være meningsfuldt
Vejledningen understreger gentagne gange meningsfuldt menneskeligt tilsyn på hvert pipeline-stadie — ikke godkendelse på stempel, men reel gennemgang af en, der forstår både behandlingen og dens implikationer. For følsomme eller højrisiko-handlinger anbefaler AEPD at kræve eksplicit menneskelig godkendelse, før agenten udfører.
Praktiske handlinger for DPO''er
Baseret på AEPD''s vejledning og analysen publiceret af Alston & Bird, her er konkrete skridt, som DPO''er bør tage nu:
**1. Lav en inventar over agentiske AI-im