L''AEPD publie un guide complet sur l''IA agentique et la protection des données : ce que les DPD doivent savoir
L''IA agentique n''est plus un concept théorique. L''AEPD a publié un document d''orientation de 81 pages abordant les défis de protection des données posés par l''IA agentique — l''une des premières publications réglementaires complètes dans l''UE sur ce sujet.
Introduction
L''IA agentique n''est plus un concept théorique confiné aux articles de recherche. Les organisations déploient déjà des systèmes d''IA qui planifient des tâches de manière autonome, accèdent aux bases de données internes, interagissent avec des services externes et prennent des décisions avec une intervention humaine minimale. Les implications en matière de protection des données sont considérables — et jusqu''à récemment, les orientations réglementaires sur la manière de régir ces systèmes au titre du RGPD étaient quasiment inexistantes.
Cette situation a changé le 18 février 2026, lorsque l''Autorité espagnole de protection des données (Agencia Española de Protección de Datos, ou AEPD) a publié un document d''orientation de 81 pages traitant spécifiquement des défis posés par l''IA agentique en matière de protection des données. Il s''agit de l''une des premières publications réglementaires complètes dans l''UE qui aborde directement l''intersection entre les agents d''IA autonomes et le droit à la vie privée.
Pour les délégués à la protection des données (DPO), ce document est une lecture essentielle. Même si votre organisation opère en dehors de l''Espagne, l''analyse de l''AEPD s''appuie sur le RGPD — ce qui la rend directement pertinente dans l''Espace économique européen et au-delà. Cet article décrypte les points clés, met en lumière les recommandations les plus opérationnelles et présente les mesures concrètes que les DPO doivent prendre en réponse.
Qu''est-ce que l''IA agentique selon l''AEPD ?
L''AEPD définit l''IA agentique comme des systèmes utilisant des modèles de langage avancés (LLM) pour atteindre des objectifs spécifiques en adaptant leur comportement en fonction de buts évolutifs et des circonstances environnementales. Il s''agit d''une définition délibérée et précise — elle distingue l''IA agentique des simples interfaces de chatbot ou des automatisations basées sur des règles statiques.
Le document identifie six caractéristiques déterminantes de l''IA agentique :
- Autonomie — Le système fonctionne indépendamment, prenant des décisions sans nécessiter d''instructions humaines étape par étape.
- Perception environnementale — Il ingère et interprète les données de son environnement opérationnel (e-mails, calendriers, bases de données, API, contenu web).
- Capacité d''action — Il ne se contente pas de recommander ; il exécute. Il peut envoyer des e-mails, réserver des voyages, modifier des enregistrements ou déclencher des workflows.
- Proactivité — Il anticipe les besoins et initie des actions plutôt que d''attendre des commandes explicites.
- Planification et raisonnement — Il décompose des objectifs complexes en sous-tâches et les séquence logiquement.
- Mémoire et adaptabilité — Il conserve le contexte entre les sessions et ajuste son comportement en fonction des interactions passées.
Pour concrétiser cela, l''AEPD utilise un exemple pratique tout au long du document : un agent d''IA chargé de gérer un voyage professionnel d''un employé. Cet agent unique accède de manière autonome au calendrier de l''employé, contacte des hôtels, achète des billets d''avion, surveille les conditions météorologiques et ajuste les plans en conséquence. L''exemple est volontairement banal pour paraître réaliste, mais il met immédiatement en lumière les complexités en matière de protection des données. Au cours d''une seule tâche, l''agent traite des données à caractère personnel provenant de multiples sources, interagit avec des services tiers, prend des décisions affectant la personne concernée et conserve des informations dans le temps.
Ce que couvre le document d''orientation
Le document de l''AEPD est exhaustif. Il cartographie l''IA agentique par rapport aux obligations fondamentales du RGPD et aux exigences opérationnelles, couvrant :
- Rôles de responsable du traitement et de sous-traitant — Qui est le responsable du traitement lorsqu''un agent d''IA engage de manière autonome un service tiers ? Le document examine comment le cadre traditionnel responsable-sous-traitant est mis à mal par les architectures multi-agents autonomes où un système d''IA, et non un humain, sélectionne les sous-traitants.
- Obligations de transparence — Comment fournir des informations significatives aux personnes concernées lorsque le processus décisionnel de l''agent d''IA est opaque ou émergent ? Le document souligne que la transparence doit s''étendre à la logique de l''agent, et pas seulement à l''existence d''un traitement automatisé.
- Droits des personnes concernées — L''exercice des droits d''accès, d''effacement ou de rectification devient considérablement plus complexe lorsque les données à caractère personnel sont réparties entre la mémoire de l''agent, les appels à des outils externes et les systèmes tiers.
- Registres des activités de traitement (ROPA) — L''IA agentique complique la tenue des ROPA car l''agent peut créer dynamiquement de nouvelles activités de traitement qui n''étaient pas anticipées lors de la conception.
- Décision automatisée — Les implications de l''article 22 du RGPD lorsque les agents prennent ou influencent matériellement des décisions affectant des individus.
- Analyses d''impact relatives à la protection des données (AIPD) — Le document précise clairement que le déploiement de l''IA agentique déclenchera presque certainement l''obligation d''AIPD au titre de l''article 35, compte tenu de la surveillance systématique, du traitement à grande échelle et de la technologie nouvelle impliqués.
- Gestion des violations — Comment détecter, contenir et signaler les violations dans des systèmes où l''agent d''IA lui-même peut être le vecteur ou la vulnérabilité.
Vulnérabilités en matière de vie privée : une surface d''attaque différente
L''une des sections les plus précieuses du document de l''AEPD est son analyse détaillée des vulnérabilités spécifiques à l''IA agentique en matière de vie privée. Le document classe les risques en trois groupes distincts :
Risques autorisés (risques liés à une utilisation légitime)
Même en fonctionnement normal, l''IA agentique introduit des risques pour la vie privée que les systèmes traditionnels ne présentent pas. L''AEPD souligne :
- Manque de responsabilité — Lorsqu''un agent d''IA enchaîne de manière autonome plusieurs actions, il devient difficile d''attribuer des décisions de traitement spécifiques à un humain responsable.
- Gestion inadéquate des accès aux données — Les agents ont souvent besoin d''un accès large aux données pour fonctionner efficacement, ce qui crée une tension avec le principe de moindre privilège.
- "Exfiltration furtive" — Un concept particulièrement préoccupant : l''agent peut, sans intention malveillante, divulguer involontairement des données à caractère personnel à des services ou contextes externes lors de son fonctionnement normal. Par exemple, un agent interrogeant une API d''hôtel pourrait transmettre des restrictions alimentaires, des informations de santé ou des habitudes de voyage d''un employé à un tiers sans instruction explicite pour le faire.
Risques non autorisés (vecteurs d''attaque)
Le document recense des vecteurs d''attaque spécifiques, uniques ou amplifiés par les architectures agentiques :
- Injection d''invites — Manipulation des instructions de l''agent via des données d''entrée conçues à cet effet.
- Empoisonnement de la mémoire — Corruption de la mémoire persistante de l''agent pour altérer son comportement futur.
- Détournement de session — Prise de contrôle d''une session active de l''agent pour rediriger ses actions.
- Élévation de privilèges — Exploitation des permissions d''accès de l''agent pour atteindre des données ou systèmes au-delà du périmètre prévu.
Risques de résilience
- Dépendance aux services externes — L''IA agentique repose souvent sur des API tierces, des services cloud et des fournisseurs de modèles. La perturbation ou la compromission d''un maillon de la chaîne peut avoir un effet domino.
- Attaques par déni de service — Ciblage de l''infrastructure de l''agent pour perturber les opérations ou forcer des comportements de repli potentiellement moins protecteurs de la vie privée.
Implications pour les DPO
Le document de l''AEPD délivre un message clair : le DPO doit être impliqué tôt et substantiellement dans tout déploiement d''IA agentique. Il ne s''agit pas d''un simple exercice de conformité.
Une gouvernance sur mesure
Le document appelle à un cadre de gouvernance de l''information sur mesure — pas une politique générique sur l''IA greffée à une documentation existante. Le DPO devrait être un architecte clé de ce cadre, veillant à ce qu''il aborde les caractéristiques spécifiques des systèmes agentiques : leur autonomie, leur mémoire, leur capacité à engager des services externes et leur aptitude à créer dynamiquement de nouvelles activités de traitement.
Évaluation continue, pas d''évaluation ponctuelle
Les approches traditionnelles de conformité — réaliser une AIPD, la documenter, la réviser annuellement — sont insuffisantes pour l''IA agentique. L''AEPD recommande une évaluation continue fondée sur des preuves, incluant une surveillance automatisée du comportement de l''agent, un benchmarking régulier par rapport aux résultats attendus et une supervision humaine significative. Cela transforme le rôle du DPO d''examinateur périodique en superviseur continu.
La minimisation des données nécessite une application active
Les systèmes d''IA agentique sont, par nature, gourmands en données. Ils fonctionnent mieux avec plus de contexte, plus de mémoire, plus d''accès. L''AEPD est explicite : les organisations doivent mettre en œuvre des politiques strictes de conservation des données, désactiver le stockage persistant inutile et déployer des outils de prévention des pertes de données (DLP) pour empêcher l''exfiltration furtive. Le DPO doit être la voix qui insiste sur ces contraintes même lorsqu''elles réduisent les performances de l''agent.
La supervision humaine doit être significative
Le document insiste à plusieurs reprises sur une supervision humaine significative à chaque étape du pipeline — pas une approbation automatique, mais un examen réel par une personne comprenant à la fois le traitement et ses implications. Pour les actions sensibles ou à haut risque, l''AEPD recommande d''exiger une approbation humaine explicite avant l''exécution par l''agent.
Mesures pratiques pour les DPO
Sur la base du document de l''AEPD et de l''analyse publiée par Alston & Bird, voici les mesures concrètes que les DPO doivent prendre dès maintenant :
1. Inventorier les déploiements d''IA agentique (y compris les déploiements fantômes). Cartographier chaque instance où des agents d''IA opèrent avec un degré d''autonomie dans votre organisation. Cela inclut les outils officiellement sanctionnés et — surtout — tout déploiement non officiel ou expérimental par des équipes individuelles. Vous ne pouvez pas gouverner ce dont vous ignorez l''existence.
2. Réaliser ou mettre à jour des AIPD spécifiques aux cas d''usage de l''IA agentique. Les AIPD génériques sur l''IA ne suffisent pas. Chaque déploiement agentique nécessite une évaluation abordant spécifiquement les six caractéristiques identifiées par l''AEPD : autonomie, perception environnementale, capacité d''action, proactivité, planification/raisonnement et mémoire. Portez une attention particulière aux chemins d''exfiltration furtive et à l''étendue des privilèges.
3. Établir un régime de surveillance continue. Collaborez avec vos équipes IT et sécurité pour mettre en œuvre une surveillance automatisée du comportement de l''agent — quelles données sont consultées, quels services externes sont contactés, quelles actions sont exécutées, et si cela correspond à la finalité déclarée. Définissez des seuils d''anomalie et des procédures de réponse aux incidents.
4. Définir et appliquer des exigences de supervision humaine. Pour chaque déploiement d''IA agentique, définissez explicitement quelles actions nécessitent une approbation humaine avant exécution. Documentez ces seuils, communiquez-les aux équipes opérant les agents et auditez régulièrement la conform