CS

AEPD zveřejnila komplexní pokyny k agenturní umělé inteligenci a ochraně údajů: Co potřebují vědět pověřenci pro ochranu údajů

Agenturní umělá inteligence již není teoretickým konceptem. AEPD vydala 81stránkový dokument s pokyny, který řeší výzvy ochrany údajů spojené s agenturní umělou inteligencí – jde o jeden z prvních komplexních regulačních dokumentů na toto téma v EU.

Úvod

Agentní AI již není teoretickým konceptem omezeným na výzkumné práce. Organizace již nasazují systémy AI, které autonomně plánují úkoly, přistupují k podnikovým databázím, interagují s externími službami a provádějí rozhodnutí s minimálním lidským zásahem. Důsledky pro ochranu osobních údajů jsou významné — a až donedávna prakticky neexistovaly žádné regulační pokyny, jak tyto systémy řídit podle GDPR.

To se změnilo 18. února 2026, kdy španělský úřad pro ochranu osobních údajů (Agencia Española de Protección de Datos, neboli AEPD) zveřejnil 81stránkový dokument s pokyny, který se konkrétně zabývá výzvami v oblasti ochrany osobních údajů spojenými s agentním AI. Jedná se o jeden z prvních komplexních regulačních dokumentů v EU, který se přímo zabývá průnikem autonomních AI agentů a právem na ochranu soukromí.

Pro pověřence pro ochranu osobních údajů (DPO) je tento dokument nezbytnou četbou. I když vaše organizace působí mimo Španělsko, analýza AEPD je založena na GDPR — což ji činí přímo relevantní v celém Evropském hospodářském prostoru i mimo něj. Tento příspěvek rozebírá klíčové body, zdůrazňuje nejdůležitější doporučení a nastiňuje konkrétní kroky, které by DPO měli podniknout v reakci na tento dokument.

Co je agentní AI podle AEPD?

AEPD definuje agentní AI jako systémy, které využívají velké jazykové modely (LLM) k dosažení specifických cílů tím, že přizpůsobují své chování na základě vyvíjejících se cílů a okolních podmínek. Jedná se o záměrné a přesné vymezení — odlišuje agentní AI od jednodušších chatbotových rozhraní nebo statické automatizace založené na pravidlech.

Dokument identifikuje šest definujících charakteristik agentního AI:

  1. Autonomie — Systém funguje nezávisle, rozhoduje se bez nutnosti postupných lidských instrukcí.
  2. Vnímání prostředí — Systém přijímá a interpretuje data ze svého provozního prostředí (e-maily, kalendáře, databáze, API, webový obsah).
  3. Schopnost jednat — Systém nejen doporučuje, ale také provádí akce. Může posílat e-maily, rezervovat cestování, upravovat záznamy nebo spouštět pracovní postupy.
  4. Proaktivita — Systém předvídá potřeby a iniciuje akce, místo aby čekal na explicitní příkazy.
  5. Plánování a uvažování — Systém rozkládá složité cíle na dílčí úkoly a logicky je řadí.
  6. Paměť a přizpůsobivost — Systém si uchovává kontext napříč relacemi a upravuje své chování na základě předchozích interakcí.

Aby to bylo konkrétní, AEPD používá praktický příklad v celém dokumentu: AI agent, jehož úkolem je řídit služební cestu zaměstnance. Tento jediný agent autonomně přistupuje k zaměstnancovu kalendáři, kontaktuje hotely, kupuje letenky, monitoruje povětrnostní podmínky a podle toho upravuje plány. Příklad je záměrně vybrán — je dostatečně běžný, aby působil realisticky, ale okamžitě odhaluje složitosti ochrany osobních údajů. V průběhu jediného úkolu agent zpracovává osobní údaje z více zdrojů, interaguje se službami třetích stran, činí rozhodnutí, která ovlivňují subjekt údajů, a uchovává informace v čase.

Co dokument pokrývá

Dokument AEPD je důkladný. Mapuje agentní AI na základní povinnosti GDPR a provozní požadavky, a to včetně:

  • Role správce a zpracovatele — Kdo je správcem, když AI agent autonomně využívá službu třetí strany? Dokument zkoumá, jak tradiční rámec správce-zpracovatele podléhá napětí v autonomních multi-agentních architekturách, kde systém AI, nikoli člověk, vybírá sub-zpracovatele.
  • Povinnosti transparentnosti — Jak poskytnout smysluplné informace subjektům údajů, když je rozhodovací proces AI agenta nejasný nebo emergentní? Dokument zdůrazňuje, že transparentnost se musí vztahovat na logiku agenta, nikoli pouze na existenci automatizovaného zpracování.
  • Práva subjektů údajů — Výkon práv, jako je přístup, výmaz nebo oprava, se stává výrazně složitějším, když jsou osobní údaje distribuovány napříč pamětí agenta, externími voláními nástrojů a systémy třetích stran.
  • Záznamy o činnostech zpracování (ROPA) — Agentní AI komplikuje údržbu ROPA, protože agent může dynamicky vytvářet nové činnosti zpracování, které nebyly v době návrhu předvídány.
  • Automatizované rozhodování — Důsledky článku 22 GDPR, když agenti činí nebo významně ovlivňují rozhodnutí týkající se jednotlivců.
  • Posouzení dopadu na ochranu osobních údajů (DPIA) — Dokument jasně uvádí, že nasazení agentního AI téměř jistě vyvolá požadavek na DPIA podle článku 35, vzhledem k systematickému monitorování, rozsáhlému zpracování a nové technologii.
  • Řízení porušení — Jak detekovat, obsahovat a hlásit porušení v systémech, kde může být samotný AI agent vektorem nebo zranitelností.

Zranitelnosti ochrany osobních údajů: Útočná plocha je jiná

Jednou z nejcennějších částí dokumentu AEPD je jeho podrobná analýza zranitelností ochrany osobních údajů specifických pro agentní AI. Dokument kategorizuje rizika do tří odlišných skupin:

Autorizovaná rizika (rizika z legitimního použití)

I když funguje tak, jak bylo navrženo, agentní AI zavádí rizika ochrany osobních údajů, která tradiční systémy nemají. AEPD zdůrazňuje:

  • Nedostatek odpovědnosti — Když AI agent autonomně spojuje více akcí, je obtížné připsat konkrétní rozhodnutí o zpracování odpovědné osobě.
  • Špatné řízení přístupu k datům — Agenti často potřebují široký přístup k datům, aby mohli efektivně fungovat, což vytváří napětí s principem nejmenších privilegií.
  • „Stínový únik dat“ — Zvláště znepokojující koncept: agent může během normálního provozu neúmyslně unést osobní údaje do externích služeb nebo kontextů, aniž by k tomu měl jakékoli zlé úmysly. Například agent dotazující se na hotelové API může předat dietní omezení, zdravotní informace nebo cestovní návyky zaměstnance třetí straně, aniž by k tomu dostal explicitní pokyn.

Neautorizovaná rizika (útočné vektory)

Dokument katalogizuje specifické útočné vektory, které jsou jedinečné nebo zesílené agentními architekturami:

  • Injekce příkazů — Manipulace s pokyny agenta prostřednictvím vytvořených vstupních dat.
  • Otravování paměti — Poškození trvalé paměti agenta za účelem změny budoucího chování.
  • Hijacking relace — Převzetí kontroly nad aktivní relací agenta za účelem přesměrování jeho akcí.
  • Eskalace privilegií — Zneužití přístupových oprávnění agenta k dosažení dat nebo systémů mimo zamýšlený rozsah.

Rizika odolnosti

  • Závislost na externích službách — Agentní AI často spoléhá na API třetích stran, cloudové služby a poskytovatele modelů. Narušení nebo kompromitace jakéhokoli článku řetězce může mít kaskádový efekt.
  • Útoky typu Denial of Service — Cílení na infrastrukturu agenta za účelem narušení operací nebo vynucení záložního chování, které může být méně ochranné z hlediska soukromí.

Co to znamená pro DPO

Dokument AEPD přináší jasné poselství: DPO musí být zapojen brzy a významně do jakéhokoli nasazení agentního AI. Nejde o cvičení v odškrtávání políček v rámci compliance.

Řízení musí být přizpůsobeno

Dokument vyzývá k přizpůsobenému rámci správy informací — nikoli k obecné politice AI přilepené k existující dokumentaci. DPO by měl být klíčovým architektem tohoto rámce, který zajistí, že bude řešit specifické charakteristiky agentních systémů: jejich autonomii, paměť, schopnost využívat externí služby a schopnost dynamicky vytvářet nové činnosti zpracování.

Průběžné hodnocení, nikoli jednorázové posouzení

Tradiční přístupy k compliance — provedení DPIA, dokumentace, roční přezkoumání — jsou pro agentní AI nedostatečné. AEPD doporučuje průběžné hodnocení založené na důkazech, včetně automatizovaného monitorování chování agenta, pravidelného porovnávání s očekávanými výsledky a smysluplného lidského dohledu. To posouvá roli DPO z periodického přezkumu na průběžné monitorování.

Minimalizace dat vyžaduje aktivní vynucení

Systémy agentního AI jsou ze své podstaty náročné na data. Fungují lépe s více kontextem, více pamětí, více přístupem. AEPD je explicitní: organizace musí implementovat přísné politiky uchovávání dat, zakázat nepotřebné trvalé ukládání a nasadit nástroje prevence ztráty dat (DLP), aby zabránily stínovému úniku dat. DPO musí být hlasem, který trvá na těchto omezeních, i když snižují výkon agenta.

Lidský dohled musí být smysluplný

Dokument opakovaně zdůrazňuje smysluplný lidský dohled v každé fázi procesu — nikoli schvalování na oko, ale skutečný přezkum někým, kdo rozumí jak zpracování, tak jeho důsledkům. U citlivých nebo vysoce rizikových akcí AEPD doporučuje vyžadovat explicitní lidské schválení před provedením akce agentem.

Praktické kroky pro DPO

Na základě dokumentu AEPD a analýzy publikované společností Alston & Bird jsou zde konkrétní kroky, které by DPO měli podniknout nyní:

**1. Inventarizujte nasazení agentního