
Naomie Halioua
Co-fondatrice & CRO, Recherche IA

Et si quelqu'un soumettait un faux texte RGPD à votre IA de conformité ?
Chaque semaine, je lis des dizaines d'articles de recherche sur l'IA et la conformité réglementaire pour n'en sélectionner qu'un — le plus utile, le plus actionnable, celui qui change vraiment la façon dont vous pensez le sujet. Cette semaine, une question m'a arrêtée : que se passe-t-il quand le texte réglementaire lu par votre IA a été délibérément falsifié ? Et est-ce que votre système s'en rend compte ?
Safer Policy Compliance with Dynamic Epistemic Fallback (DEF)
Imperial, Tayyar Madabushi · arXiv:2601.23094, January 2026
« Les humains développent une série de défenses cognitives, connues sous le nom de vigilance épistémique, pour combattre les risques de tromperie et de désinformation. Développer des garde-fous pour les LLM inspirés de ce mécanisme pourrait être particulièrement utile pour leur application dans des tâches à haut enjeu telles que l'automatisation de la conformité aux lois sur la protection des données. »
Imperial & Tayyar Madabushi, arXiv:2601.23094
Ce que le paper introduit
L'article introduit DEF, un protocole qui donne aux LLM l'équivalent de la vigilance épistémique humaine. Quand le système rencontre un texte réglementaire qui a été malicieusement modifié, il signale l'incohérence, refuse de s'y conformer, et repasse sur ses propres connaissances vérifiées. Testé sur le RGPD et HIPAA, avec DeepSeek-R1 atteignant 100 % de détection dans un cas.
100%
détection (DeepSeek-R1)
GDPR
& HIPAA testés
DEF
premier framework de défense
Le détail qui change tout
La plupart des systèmes IA de conformité supposent que le texte réglementaire qu'ils lisent est authentique. DEF est le premier framework construit sur l'hypothèse inverse — que l'input pourrait être compromis. Dans un environnement où les artefacts juridiques peuvent être manipulés, ce n'est pas un risque théorique.
Un extrait RGPD falsifié soumis à un LLM non protégé peut produire un résultat de conformité faussement confiant. L'IA n'hésitera pas, ne signalera pas d'incertitude — elle appliquera les fausses règles comme si elles étaient réelles. DEF est la première défense documentée contre ce vecteur d'attaque.
Pourquoi ça vous concerne
Vous êtes DPO ou responsable conformité
Si votre organisation utilise un outil IA pour interpréter ou appliquer des textes réglementaires, ce paper introduit une menace que vous n'avez peut-être pas envisagée. Un extrait RGPD falsifié soumis à un LLM non protégé peut produire un résultat de conformité faussement confiant. DEF est la première défense documentée.
Vous développez un produit IA
Le paper montre que des modèles frontier comme DeepSeek-R1 peuvent atteindre 100 % de détection avec le bon protocole d'inférence. C'est une décision d'ingénierie, pas un problème de recherche. Si votre couche de conformité lit des textes réglementaires externes, ça devrait être sur votre checklist d'architecture.
Votre secteur est régulé (santé, finance, énergie, RH)
Le paper teste explicitement sur le RGPD et HIPAA. Les artefacts juridiques dans les secteurs régulés sont exactement le type de document que des acteurs adverses cibleraient. Si votre workflow compliance repose sur une IA lisant des textes réglementaires, l'intégrité de ces textes est un enjeu de sécurité.
Comment Cleo gère ça
Chez Cleo, chaque texte réglementaire que nous traitons passe par une couche de vérification avant d'entrer dans notre pipeline. Ce paper formalise ce que nous considérons comme non négociable : l'intégrité des inputs réglementaires est un prérequis, pas une réflexion après coup. Nos 30+ agents spécialisés croisent les sources avec les bases officielles, signalent les incohérences et escaladent vers la revue humaine quand la confiance est basse.
Référence : Imperial & Tayyar Madabushi (2026), Safer Policy Compliance with Dynamic Epistemic Fallback, arXiv:2601.23094
Questions fréquentes
Qu'est-ce que la vigilance épistémique en IA de conformité ?
La vigilance épistémique est un concept issu des sciences cognitives : les humains développent des défenses cognitives contre la tromperie et la désinformation. Appliquée à la conformité IA, elle consiste à construire des systèmes capables de détecter qu'un texte réglementaire a été falsifié, plutôt que de suivre aveuglément tout input présenté comme une loi.
Qu'est-ce que le framework DEF pour l'IA de conformité ?
DEF (Dynamic Epistemic Fallback) est un protocole introduit par Imperial & Tayyar Madabushi (arXiv:2601.23094, janvier 2026). Quand un LLM rencontre un texte réglementaire malicieusement modifié, DEF signale l'incohérence, refuse de se conformer au texte falsifié, et repasse sur ses connaissances vérifiées. Testé sur le RGPD et HIPAA, DeepSeek-R1 a atteint 100 % de détection.
Peut-on vraiment falsifier un texte RGPD pour tromper une IA ?
Oui. La plupart des systèmes IA de conformité ingèrent les textes réglementaires de sources externes sans vérifier leur authenticité. Un extrait RGPD falsifié — avec des obligations subtilement modifiées ou des exceptions fabriquées — peut produire un résultat de conformité faussement confiant. Ce n'est pas un risque théorique : l'injection de documents adversariaux est un vecteur d'attaque connu des pipelines RAG.
Ressources associées
Solutions
Solution Conformité ProduitEssayez Cleo : scan de risque réglementaire gratuit
Visualisez votre paysage réglementaire en minutes. Sans inscription, sans CB.