AEPD publicerar omfattande vägledning om agentisk AI och dataskydd: Vad DPO behöver veta
Agentisk AI är inte längre en teoretisk koncept. AEPD släppte ett 81-sidigt vägledningsdokument som behandlar dataskyddsutmaningar som agentisk AI medför — en av de första omfattande regleringspublikationerna i EU om detta ämne.
Introduktion
Agentisk AI är inte längre en teoretisk koncept som endast förekommer i forskningspapper. Organisationer använder redan AI-system som självständigt planerar uppgifter, får tillgång till företagsdatabaser, interagerar med externa tjänster och utför beslut med minimal mänsklig inblandning. Integritetsimplikationerna är betydande — och fram till nyligen fanns det praktiskt taget ingen regleringsvägledning om hur dessa system ska styras enligt GDPR.
Detta förändrades den 18 februari 2026 när den spanska dataskyddsmyndigheten (Agencia Española de Protección de Datos, eller AEPD) publicerade ett 81-sidigt vägledningsdokument som specifikt behandlar de dataskyddsutmaningar som agentisk AI innebär. Detta är en av de första omfattande regleringspublikationerna i EU som direkt adresserar skärningspunkten mellan autonoma AI-agenter och integritetslagstiftning.
För dataskyddsombuden (DPO) är denna vägledning essentiell läsning. Även om din organisation verkar utanför Spanien är AEPD:s analys grundad i GDPR — vilket gör den direkt relevant över hela Europeiska ekonomiska samarbetsområdet (EES) och bortom. Detta inlägg bryter ner de viktigaste punkterna, lyfter fram de mest användbara rekommendationerna och beskriver konkreta åtgärder som DPO bör vidta som svar på vägledningen.
Vad är agentisk AI enligt AEPD?
AEPD definierar agentisk AI som system som använder stora språkmodeller (LLM) för att uppnå specifika mål genom att anpassa sitt beteende utifrån föränderliga mål och omgivande omständigheter. Detta är en avsiktlig och preciserad formulering — den skiljer agentisk AI från enklare chattbotgränssnitt eller statisk regelbaserad automatisering.
Vägledningen identifierar sex definierande egenskaper för agentisk AI:
- Autonomi — Systemet fungerar självständigt och fattar beslut utan att kräva steg-för-steg-instruktioner från en människa.
- Miljöuppfattning — Det tar in och tolkar data från sin operativa miljö (e-post, kalendrar, databaser, API:er, webbinnehåll).
- Handlingsförmåga — Det rekommenderar inte bara; det utför. Det kan skicka e-post, boka resor, ändra register eller starta arbetsflöden.
- Proaktivitet — Det förutser behov och initierar åtgärder istället för att vänta på explicita kommandon.
- Planering och resonemang — Det bryter ner komplexa mål i deluppgifter och sekvenserar dem logiskt.
- Minnesförmåga och anpassningsförmåga — Det behåller kontext över sessioner och justerar sitt beteende utifrån tidigare interaktioner.
För att konkretisera detta använder AEPD ett praktiskt exempel genom hela vägledningen: en AI-agent som har i uppdrag att hantera en anställds affärsresa. Denna enskilda agent får självständigt tillgång till den anställdes kalender, kontaktar hotell, köper flygbiljetter, övervakar väderförhållanden och justerar planerna därefter. Exemplet är avsiktligt valt — det är tillräckligt vardagligt för att kännas realistiskt, men det lyfter omedelbart fram komplexiteten i dataskyddet. Under loppet av en enda uppgift behandlar agenten personuppgifter från flera källor, interagerar med tredjepartstjänster, fattar beslut som påverkar den registrerade och behåller information över tid.
Vad täcker vägledningen?
AEPD:s dokument är omfattande. Det kartlägger agentisk AI mot kärnskyldigheter och operativa krav i GDPR och behandlar:
- Roller som ansvarig och förarbehandlare — Vem är den ansvarige när en AI-agent självständigt engagerar en tredjepartstjänst? Vägledningen undersöker hur det traditionella ramverket för ansvarig och förarbehandlare blir problematiskt i autonoma multiagentarkitekturer där ett AI-system, inte en människa, väljer underleverantörer.
- Transparensskyldigheter — Hur tillhandahåller man meningsfull information till den registrerade när AI-agentens beslutsprocess är ogenomskinlig eller emergent? Vägledningen betonar att transparensen måste sträcka sig till agentens logik, inte bara till förekomsten av automatiserad behandling.
- Den registrerades rättigheter — Att utöva rättigheter som tillgång, radering eller rättelse blir betydligt mer komplext när personuppgifter är spridda över en agents minne, externa verktygsanrop och tredjepartssystem.
- Register över behandlingsaktiviteter (ROPA) — Agentisk AI komplicerar underhållet av ROPA eftersom agenten dynamiskt kan skapa nya behandlingsaktiviteter som inte förutsetts vid designstadiet.
- Automatiserat beslutsfattande — Implikationer av artikel 22 i GDPR när agenter fattar eller påverkar beslut som berör individer.
- Dataskyddsutvärderingar (DPIA) — Vägledningen framhäver att implementering av agentisk AI nästan säkert kommer att utlösa kravet på DPIA enligt artikel 35, med tanke på systematisk övervakning, storskalig behandling och ny teknik.
- Hantering av intrång — Hur man upptäcker, begränsar och rapporterar intrång i system där AI-agenten själv kan vara vektorn eller sårbarheten.
Integritetssårbarheter: Angreppsytan är annorlunda
En av de mest värdefulla delarna av AEPD:s vägledning är dess detaljerade analys av integritetssårbarheter som är specifika för agentisk AI. Dokumentet kategoriserar risker i tre distinkta grupper:
Auktoriserade risker (risker från legitim användning)
Även när den fungerar som avsett introducerar agentisk AI integritetsrisker som traditionella system inte har. AEPD framhäver:
- Brist på ansvarighet — När en AI-agent självständigt länkar samman flera åtgärder blir det svårt att tillskriva specifika behandlingsbeslut till en ansvarig människa.
- Dålig hantering av dataåtkomst — Agenter behöver ofta bred dataåtkomst för att fungera effektivt, vilket skapar spänning mot principen om minsta behörighet.
- "Skuggläckage" — Ett särskilt oroande koncept: agenten kan oavsiktligt läcka personuppgifter till externa tjänster eller sammanhang under normal drift, utan någon skadlig avsikt. Till exempel kan en agent som frågar ett hotell-API oavsiktligt skicka med information om anställdas kostpreferenser, hälsouppgifter eller resemönster till en tredje part utan någon explicit instruktion att göra så.
Oauktoriserade risker (angreppsvektorer)
Vägledningen katalogiserar specifika angreppsvektorer som är unika för eller förstärkta av agentiska arkitekturer:
- Prompt injection — Manipulera agentens instruktioner genom konstruerade indata.
- Minnesförgiftning — Korrumpera agentens beständiga minne för att ändra framtida beteende.
- Session hijacking — Ta kontroll över en aktiv agentsession för att omdirigera dess åtgärder.
- Privilegieeskalering — Utnyttja agentens åtkomstbehörigheter för att nå data eller system utöver den avsedda omfattningen.
Resilensrisker
- Beroende av externa tjänster — Agentisk AI förlitar sig ofta på tredjeparts-API:er, molntjänster och modellleverantörer. Avbrott eller kompromissering av någon länk i kedjan kan få kaskadeffekter.
- Denial of Service-attacker — Rikta in dig på agentens infrastruktur för att störa verksamheten eller tvinga fram fallbackbeteenden som kan vara mindre integritetsskyddande.
Vad detta innebär för DPO
AEPD:s vägledning förmedlar ett tydligt budskap: DPO måste vara inblandad tidigt och substantivt i varje implementering av agentisk AI. Detta är inte en efterkontroll för att markera av en checkbox.
Styrande måste skräddarsys
Vägledningen uppmanar till ett skräddarsytt informationsstyrningsramverk — inte en generisk AI-policy som fästs på befintlig dokumentation. DPO bör vara en nyckelarkitekt för detta ramverk och säkerställa att det adresserar de specifika egenskaperna hos agentiska system: deras autonomi, deras minnesförmåga, deras förmåga att engagera externa tjänster och deras kapacitet att dynamiskt skapa nya behandlingsaktiviteter.
Kontinuerlig utvärdering, inte engångsbedömning
Traditionella efterlevnadsmetoder — utför en DPIA, dokumentera den, granska årligen — är otillräckliga för agentisk AI. AEPD rekommenderar kontinuerlig evidensbaserad utvärdering, inklusive automatiserad övervakning av agentbeteende, regelbunden benchmarking mot förväntade utfall och meningsfull mänsklig övervakning. Detta förändrar DPO:s roll från periodisk granskare till kontinuerlig övervakare.
Dataminimering kräver aktiv efterlevnad
Agentiska AI-system är av naturen datahungriga. De presterar bättre med mer kontext, mer minne, mer åtkomst. AEPD är tydlig: organisationer måste implementera strikta datalagringspolicyer, inaktivera onödig beständig lagring och använda Data Loss Prevention-verktyg (DLP) för att förhindra skuggläckage. DPO måste vara den som insisterar på dessa begränsningar även när de minskar agentens prestanda.
Mänsklig övervakning måste vara meningsfull
Vägledningen betonar upprepade gånger meningsfull mänsklig övervakning i varje steg i pipelinen — inte godkännande som en formalitet, utan genuin granskning av någon som förstår både behandlingen och dess implikationer. För känsliga eller högriskåtgärder rekommenderar AEPD att kräva explicit mänskligt godkännande innan agenten utför åtgärden.
Praktiska åtgärder för DPO
Baserat på AEPD:s vägledning och analysen publicerad av Alston & Bird, här är konkreta steg som DPO bör vidta nu:
1. Inventera implementeringar av agentisk AI (inklusive skuggimplementeringar). Kartlägg varje instans där AI-agenter fungerar med någon grad av autonomi i din organisation. Detta inkluderar officiellt godkända verktyg och — kritiskt — alla inofficiella eller experimentella implementeringar av enskilda team. Du kan inte styra det du inte vet existerar.
2. Utför eller uppdatera DPIA specifikt för användningsfall av agentisk AI. Generiska AI-DPIA är inte tillräckliga. Varje agentisk implementering behöver en utvärdering som