AEPD objavio sveobuhvatne smjernice o agentnoj umjetnoj inteligenciji i zaštiti podataka: Što DPO-i trebaju znati
Agentna umjetna inteligencija više nije teoretski koncept. AEPD je objavio dokument sa smjernicama od 81 stranicu koji se bavi izazovima zaštite podataka koje predstavlja agentna umjetna inteligencija — jedna od prvih sveobuhvatnih regulatornih publikacija u EU na ovu temu.
Uvod
Agentna umjetna inteligencija (AI) više nije teorijski koncept ograničen na znanstvene radove. Organizacije već koriste AI sustave koji autonomno planiraju zadatke, pristupaju korporativnim bazama podataka, komuniciraju s vanjskim uslugama i izvršavaju odluke uz minimalnu ljudsku intervenciju. Implikacije na zaštitu privatnosti su značajne — a do nedavno regulatorne smjernice o tome kako upravljati tim sustavima prema GDPR-u praktički nisu postojale.
To se promijenilo 18. veljače 2026. kada je Španjolska agencija za zaštitu podataka (Agencia Española de Protección de Datos, ili AEPD) objavila dokument od 81 stranice koji se posebno bavi izazovima zaštite podataka koje predstavlja agentna AI. Ovo je jedan od prvih sveobuhvatnih regulatornih publikacija u EU koja se izravno bavi presjekom autonomnih AI agenata i zakona o privatnosti.
Za službenike za zaštitu podataka (DPO), ove smjernice su ključno štivo. Čak i ako vaša organizacija djeluje izvan Španjolske, AEPD-ova analiza temelji se na GDPR-u — što je čini izravno relevantnom u cijelom Europskom gospodarskom prostoru i dalje. Ovaj post razlaže ključne točke, ističe najvažnije preporuke i opisuje konkretne korake koje bi DPO-i trebali poduzeti kao odgovor.
Što je agentna AI prema AEPD-u?
AEPD definira agentnu AI kao sustave koji koriste velike jezične modele (LLM) za postizanje specifičnih ciljeva prilagođavajući svoje ponašanje na temelju razvoja ciljeva i okolinskih okolnosti. Ovo je namjerno i precizno određenje — razlikuje agentnu AI od jednostavnih chatbot sučelja ili statičke automatizacije temeljene na pravilima.
Smjernice identificiraju šest definirajućih karakteristika agentne AI:
- Autonomija — Sustav djeluje neovisno, donoseći odluke bez potrebe za korak-po-korak ljudskim uputama.
- Percepcija okoline — Prikuplja i interpretira podatke iz svog operativnog okruženja (e-pošta, kalendari, baze podataka, API-ji, web sadržaji).
- Sposobnost poduzimanja radnji — Ne samo da preporučuje; izvršava. Može slati e-poštu, rezervirati putovanja, mijenjati zapise ili pokretati tijekove rada.
- Proaktivnost — Predviđa potrebe i pokreće radnje umjesto da čeka na eksplicitne naredbe.
- Planiranje i rasuđivanje — Razlaže složene ciljeve na podzadatke i logički ih sekvencira.
- Pamćenje i prilagodljivost — Zadržava kontekst kroz sesije i prilagođava ponašanje na temelju prethodnih interakcija.
Kako bi ovo bilo konkretno, AEPD koristi praktičan primjer kroz smjernice: AI agent zadužen za upravljanje službenim putovanjem zaposlenika. Ovaj agent autonomno pristupa kalendaru zaposlenika, kontaktira hotele, kupuje avionske karte, prati vremenske uvjete i prilagođava planove u skladu s tim. Primjer je namjerno odabran — dovoljno je svakodnevan da se čini realističnim, ali odmah ističe složenost zaštite podataka. Tijekom obavljanja jednog zadatka, agent obrađuje osobne podatke iz više izvora, komunicira s uslugama trećih strana, donosi odluke koje utječu na subjekta podataka i zadržava informacije kroz vrijeme.
Što smjernice pokrivaju
AEPD-ov dokument je temeljit. Mapira agentnu AI prema temeljnim obvezama i operativnim zahtjevima GDPR-a, pokrivajući:
- Uloge upravitelja i izvršitelja obrade — Tko je upravitelj kada AI agent autonomno angažira uslugu treće strane? Smjernice ispituju kako tradicionalni okvir upravitelja-izvršitelja obrade podataka postaje napet pod autonomnim arhitekturama s više agenata gdje AI sustav, a ne čovjek, odabire podizvršitelje.
- Obveze transparentnosti — Kako pružiti smislene informacije subjektima podataka kada je proces donošenja odluka AI agenta neproziran ili emergentan? Smjernice naglašavaju da transparentnost mora obuhvaćati logiku agenta, a ne samo postojanje automatizirane obrade.
- Prava subjekata podataka — Ostvarivanje prava kao što su pristup, brisanje ili ispravljanje postaje znatno složenije kada su osobni podaci raspoređeni kroz pamćenje agenta, pozive vanjskih alata i sustave trećih strana.
- Evidencije o aktivnostima obrade (ROPAs) — Agentna AI komplicira održavanje ROPA jer agent može dinamički stvarati nove aktivnosti obrade koje nisu bile predviđene u fazi dizajna.
- Automatizirano donošenje odluka — Implikacije članka 22 GDPR-a kada agenti donose ili značajno utječu na odluke koje se tiču pojedinaca.
- Procjene utjecaja na zaštitu podataka (DPIAs) — Smjernice jasno navode da će implementacija agentne AI gotovo sigurno potaknuti zahtjev za DPI-om prema članku 35, s obzirom na sustavno praćenje, obradu velikih razmjera i novu tehnologiju koja je uključena.
- Upravljanje povredama — Kako otkriti, ograničiti i prijaviti povrede u sustavima gdje sam AI agent može biti vektor ili ranjivost.
Ranjivosti privatnosti: Površina napada je drugačija
Jedan od najvrednijih dijelova AEPD-ovih smjernica je detaljna analiza ranjivosti privatnosti specifičnih za agentnu AI. Dokument kategorizira rizike u tri različite skupine:
Autorizirani rizici (rizici iz legitimne upotrebe)
Čak i kada radi kako je zamišljeno, agentna AI uvodi rizike privatnosti koje tradicionalni sustavi nemaju. AEPD ističe:
- Nedostatak odgovornosti — Kada AI agent autonomno povezuje više radnji, postaje teško pripisati specifične odluke o obradi odgovornoj osobi.
- Loše upravljanje pristupom podacima — Agenti često zahtijevaju širok pristup podacima kako bi funkcionirali učinkovito, što stvara napetost s načelom minimalnih privilegija.
- "Shadow-leak exfiltration" — Posebno zabrinjavajući koncept: agent može nenamjerno procuriti osobne podatke vanjskim uslugama ili kontekstima tijekom normalnog rada, bez ikakve zlonamjerne namjere. Na primjer, agent koji upita hotelski API može prenijeti informacije o dijetalnim ograničenjima, zdravstvenim podacima ili putnim običajima zaposlenika trećoj strani bez eksplicitne naredbe da to učini.
Neautorizirani rizici (vektori napada)
Smjernice katalogiziraju specifične vektore napada koji su jedinstveni ili pojačani agentnim arhitekturama:
- Prompt injection — Manipulacija uputama agenta kroz oblikovane ulazne podatke.
- Memory poisoning — Kvarjenje trajnog pamćenja agenta kako bi se promijenilo njegovo buduće ponašanje.
- Session hijacking — Preuzimanje kontrole nad aktivnom sesijom agenta kako bi se preusmjerile njegove radnje.
- Privilege escalation — Iskorištavanje dozvola pristupa agenta kako bi se dosegli podaci ili sustavi izvan predviđenog opsega.
Rizici otpornosti
- Ovisnost o vanjskim uslugama — Agentna AI često se oslanja na API-je trećih strana, cloud usluge i pružatelje modela. Poremećaj ili kompromitacija bilo koje karike u lancu može se kaskadno proširiti.
- Napadi uskraćivanja usluge — Ciljanje infrastrukture agenta kako bi se poremetili radovi ili prisilili na rezervne ponašanja koja mogu biti manje zaštitna za privatnost.
Što ovo znači za DPO-e
AEPD-ove smjernice nose jasnu poruku: DPO mora biti uključen rano i značajno u svaku implementaciju agentne AI. Ovo nije vježba u označavanju checkboxa za usklađenost.
Upravljanje mora biti prilagođeno
Smjernice pozivaju na prilagođeni okvir upravljanja informacijama — ne generičku AI politiku pričvršćenu na postojeću dokumentaciju. DPO bi trebao biti ključni arhitekt ovog okvira, osiguravajući da se bavi specifičnim karakteristikama agentnih sustava: njihovom autonomijom, pamćenjem, sposobnošću angažiranja vanjskih usluga i kapacitetom za dinamičko stvaranje novih aktivnosti obrade.
Kontinuirana evaluacija, ne jednokratna procjena
Tradicionalni pristupi usklađenosti — provesti DPI, dokumentirati ga, pregledati godišnje — nedostatni su za agentnu AI. AEPD preporučuje kontinuiranu evaluaciju temeljenu na dokazima, uključujući automatizirano praćenje ponašanja agenta, redovito uspoređivanje s očekivanim ishodima i značajan nadzor čovjeka u petlji. Ovo pomiče ulogu DPO-a s periodičnog pregledača na kontinuiranog nadzornika.
Minimalizacija podataka zahtijeva aktivno provođenje
Agentni AI sustavi su, po prirodi, gladni podataka. Bolje funkcioniraju s više konteksta, više pamćenja, više pristupa. AEPD je eksplicitan: organizacije moraju implementirati stroge politike zadržavanja podataka, onemogućiti nepotrebno trajno pohranjivanje i koristiti alate za sprječavanje gubitka podataka (DLP) kako bi spriječili shadow-leak exfiltration. DPO mora biti glas koji inzistira na tim ograničenjima čak i kada smanjuju performanse agenta.