SK

AEPD zverejnila komplexné usmernenie o agentickej umelej inteligencii a ochrane údajov: Čo potrebujú vedieť zodpovedné osoby za ochranu údajov

Agentická umelá inteligencia už nie je teoretickým konceptom. AEPD vydala 81-stránkový dokument s usmerneniami, ktorý sa zaoberá výzvami v oblasti ochrany údajov spojenými s agentickou umelou inteligenciou – ide o jeden z prvých komplexných regulačných dokumentov v EÚ na túto tému.

Úvod

Agentická umelá inteligencia už nie je teoretickým konceptom obmedzeným na vedecké práce. Organizácie už nasadzujú systémy AI, ktoré autonómne plánujú úlohy, pristupujú k podnikovým databázam, interagujú s externými službami a vykonávajú rozhodnutia s minimálnym zásahom človeka. Dôsledky na ochranu súkromia sú významné – a až donedávna prakticky neexistovali regulačné pokyny, ako tieto systémy riadiť v súlade s GDPR.

To sa zmenilo 18. februára 2026, keď španielsky úrad na ochranu údajov (Agencia Española de Protección de Datos, alebo AEPD) zverejnil 81-stránkový dokument s pokynmi, ktorý sa konkrétne zaoberá výzvami v oblasti ochrany údajov, ktoré predstavuje agentická AI. Ide o jeden z prvých komplexných regulačných dokumentov v EÚ, ktorý sa priamo zaoberá priesečníkom autonómnych AI agentov a práva na ochranu súkromia.

Pre povestných za ochranu údajov (DPO) je tento dokument nevyhnutným čítaním. Aj keď vaša organizácia pôsobí mimo Španielska, analýza AEPD je založená na GDPR – čo ju robí priamo relevantnou v rámci Európskeho hospodárskeho priestoru a ďalej. Tento príspevok rozoberá kľúčové body, zdôrazňuje najdôležitejšie odporúčania a načrtáva konkrétne kroky, ktoré by mali DPO podniknúť ako odpoveď.

Čo je agentická AI podľa AEPD?

AEPD definuje agentickú AI ako systémy, ktoré používajú veľké jazykové modely (LLM) na dosiahnutie konkrétnych cieľov prispôsobením svojho správania na základe vyvíjajúcich sa cieľov a okolností prostredia. Ide o zámerné a presné vymedzenie – odlišuje agentickú AI od jednoduchších rozhraní chatbotov alebo statickej automatizácie založenej na pravidlách.

Pokyny identifikujú šesť definujúcich charakteristík agentickej AI:

  1. Autonómia – Systém funguje nezávisle, pričom robí rozhodnutia bez potreby postupných ľudských pokynov.
  2. Vnímanie prostredia – Získava a interpretuje údaje zo svojho operačného prostredia (e-maily, kalendáre, databázy, API, webový obsah).
  3. Schopnosť konať – Nielenže odporúča, ale aj vykonáva. Môže posielať e-maily, rezervovať cestovné, upravovať záznamy alebo spúšťať pracovné postupy.
  4. Proaktivita – Predvída potreby a iniciuje akcie namiesto čakania na explicitné príkazy.
  5. Plánovanie a uvažovanie – Rozkladá zložité ciele na podúlohy a logicky ich usporadúva.
  6. Pamäť a prispôsobivosť – Uchováva kontext medzi reláciami a upravuje svoje správanie na základe predchádzajúcich interakcií.

Aby to bolo konkrétne, AEPD používa praktický príklad v celých pokynoch: AI agent, ktorý má na starosti správu pracovnej cesty zamestnanca. Tento jediný agent autonómne pristupuje k kalendáru zamestnanca, kontaktuje hotely, kupuje letenky, monitoruje poveternostné podmienky a podľa potreby upravuje plány. Príklad je zámerne zvolený – je dostatočne bežný, aby pôsobil realisticky, ale okamžite odhaľuje zložitosti ochrany údajov. V priebehu jednej úlohy agent spracúva osobné údaje z viacerých zdrojov, interaguje s tretími stranami, robí rozhodnutia, ktoré ovplyvňujú dotknutú osobu, a uchováva informácie v čase.

Čo pokyny pokrývajú

Dokument AEPD je dôkladný. Mapuje agentickú AI voči základným povinnostiam GDPR a operačným požiadavkám, pričom pokrýva:

  • Roly správcu a spracovateľa – Kto je správcom, keď AI agent autonómne zapojí službu tretej strany? Pokyny skúmajú, ako tradičný rámec správca-spracovateľ napína autonómne multi-agentné architektúry, kde AI systém, nie človek, vyberá sub-spracovateľov.
  • Transparentné povinnosti – Ako poskytnúť zmysluplné informácie dotknutým osobám, keď je rozhodovací proces AI agenta nejasný alebo emergentný? Pokyny zdôrazňujú, že transparentnosť sa musí rozšíriť na logiku agenta, nielen na existenciu automatizovaného spracovania.
  • Práva dotknutých osôb – Vykonávanie práv, ako je prístup, výmaz alebo oprava, sa výrazne komplikuje, keď sú osobné údaje distribuované naprieč pamäťou agenta, externými volaniami nástrojov a systémami tretích strán.
  • Záznamy o činnostiach spracovania (ROPAs) – Agentická AI komplikuje správu ROPA, pretože agent môže dynamicky vytvárať nové činnosti spracovania, ktoré neboli predvídané v čase návrhu.
  • Automatizované rozhodovanie – Dôsledky článku 22 GDPR, keď agenti robia alebo výrazne ovplyvňujú rozhodnutia týkajúce sa jednotlivcov.
  • Posúdenie vplyvu na ochranu údajov (DPIAs) – Pokyny jasne uvádzajú, že nasadenie agentickej AI takmer iste spustí požiadavku DPIA podľa článku 35, vzhľadom na systematické monitorovanie, spracovanie vo veľkom rozsahu a novú technológiu.
  • Správa porúch – Ako zistiť, obmedziť a nahlásiť poruchy v systémoch, kde samotný AI agent môže byť vektorom alebo zraniteľnosťou.

Zraniteľnosti ochrany súkromia: Útočná plocha je iná

Jednou z najhodnotnejších častí pokynov AEPD je podrobná analýza zraniteľností ochrany súkromia špecifických pre agentickú AI. Dokument kategorizuje riziká do troch odlišných skupín:

Autorizované riziká (Riziká z legitímneho používania)

Aj keď funguje podľa návrhu, agentická AI prináša riziká ochrany súkromia, ktoré tradičné systémy nemajú. AEPD zdôrazňuje:

  • Nedostatok zodpovednosti – Keď AI agent autonómne spája viacero akcií, je ťažké pripísať konkrétne rozhodnutia o spracovaní zodpovednému človeku.
  • Slabé riadenie prístupu k údajom – Agenti často potrebujú široký prístup k údajom, aby fungovali efektívne, čo vytvára napätie s princípom najmenšieho oprávnenia.
  • „Tajný únik údajov“ – Obzvlášť znepokojujúci koncept: agent môže neúmyselne uniknúť osobné údaje externým službám alebo kontextom počas normálnej prevádzky, bez akéhokoľvek zlého úmyslu. Napríklad agent, ktorý sa pýta na hotelové API, môže preniesť diétne obmedzenia, zdravotné informácie alebo cestovné vzorce zamestnanca na tretiu stranu bez explicitného pokynu.

Neautorizované riziká (Útočné vektory)

Pokyny katalogizujú špecifické útočné vektory, ktoré sú jedinečné pre alebo zosilnené agentickými architektúrami:

  • Injekcia príkazov – Manipulácia s pokynmi agenta prostredníctvom špeciálne pripravených vstupných údajov.
  • Otravovanie pamäte – Poškodenie trvalej pamäte agenta, aby sa zmenilo jeho budúce správanie.
  • Únos relácie – Prevzatie kontroly nad aktívnou reláciou agenta, aby sa presmerovali jeho akcie.
  • Eskalácia oprávnení – Zneužitie prístupových oprávnení agenta na získanie údajov alebo systémov mimo zamýšľaného rozsahu.

Riziká odolnosti

  • Závislosť na externých službách – Agentická AI často závisí od API tretích strán, cloudových služieb a poskytovateľov modelov. Narušenie alebo kompromitácia akéhokoľvek článku reťaze môže spôsobiť kaskádu.
  • Útoky typu Denial of Service – Cielené na infraštruktúru agenta, aby sa narušila prevádzka alebo vynútili záložné správania, ktoré môžu byť menej ochranné pre súkromie.

Čo to znamená pre DPO

Pokyny AEPD nesú jasné posolstvo: DPO sa musí zapojiť skoro a podstatne do akéhokoľvek nasadenia agentickej AI. Toto nie je cvičenie na zaškrtnutie políčka o súlade.

Správa musí byť prispôsobená

Pokyny vyžadujú prispôsobený rámec správy informácií – nie generickú politiku AI pripojenú k existujúcej dokumentácii. DPO by mal byť kľúčovým architektom tohto rámca, aby sa zaistilo, že sa zaoberá špecifickými charakteristikami agentických systémov: ich autonómiou, pamäťou, schopnosťou zapojiť externé služby a kapacitou dynamicky vytvárať nové činnosti spracovania.

Kontinuálne hodnotenie, nie jednorazové posúdenie

Tradičné prístupy k súlade – vykonajte DPIA, zdokumentujte ho, prehodnocujte ročne – sú pre agentickú AI nedostatočné. AEPD odporúča kontinuálne hodnotenie založené na dôkazoch, vrátane automatického monitorovania správania agenta, pravidelného benchmarkovania voči očakávaným výsledkom a zmysluplného dohľadu človeka v slučke. Toto posúva úlohu DPO z periodického prehliadača na kontinuálneho monitora.

Minimalizácia údajov vyžaduje aktívne vynucovanie

Agentické systémy AI sú prirodzene hladné po údajoch. Fungujú lepšie s väčším kontextom, väčšou pamäť