11 nov. 2025

Les attaques par prompt : quand la curiosité devient une faille de sécurité

Les attaques par prompt marquent une nouvelle ère : celle où la sécurité dépend de la psychologie des modèles.

Chaque semaine, Cleo Insight c'est 5 minutes pour transformer les derniers papiers recherche en levier d'action.

Les récentes révélations de Tenable sur sept vulnérabilités critiques de ChatGPT rappellent une réalité simple : l’IA n’est pas attaquée comme un logiciel, mais manipulée comme un esprit. Ces failles ne reposent pas sur du code malveillant, mais sur des instructions détournées capables d’amener un modèle à trahir sa logique interne.


Deux nouvelles études de recherche montrent que cette menace, appelée prompt injection, est désormais le maillon faible de toute infrastructure d’IA générative, y compris dans les environnements professionnels les plus sécurisés.

Prompt Injection Attacks in Large Language Models and AI Agent Systems(Collectif de chercheurs, 2025 — 8 min)

Les injections de prompt sont identifiées comme l’une des menaces les plus sérieuses pour les modèles de langage (LLM) déployés en production.
Une méta-analyse de 120 études montre que 5 documents bien conçus suffisent à détourner la sortie d’un modèle dans 9 cas sur 10 via l’empoisonnement du processus RAG (Retrieval-Augmented Generation).
Des incidents comme la faille CVE-2025-53773 sur GitHub Copilot (score CVSS : 9,6) montrent que la menace n’est plus théorique : elle est opérationnelle.

À retenir : Les attaques par prompt sont un risque structurel qui appelle une défense en profondeur plutôt qu’une solution ponctuelle.

Prompt Injection as an Emerging Threat: Evaluating the Resilience of Large Language Models (Ganiuly & Smaiyl, 2025 — 12 min)

Cette étude évalue la résilience réelle de plusieurs grands modèles face à ces attaques. Quatre modèles (GPT-4, GPT-4o, LLaMA-3 8B Instruct et Flan-T5-Large) ont été testés selon trois métriques de robustesse. Les résultats confirment que la taille du modèle n’assure pas la sécurité : c’est l’alignement éthique et le réglage des garde-fous qui déterminent la résistance.
GPT-4 se montre le plus robuste (RDR = 9,8 %, SCR = 96,4 %), mais aucune architecture n’est totalement sûre.

À retenir : Même les modèles les plus avancés restent vulnérables aux attaques indirectes et par substitution.

À retenir pour vous – synthèse des deux études

1. Les failles révélées par Tenable illustrent concrètement les vulnérabilités théorisées par la recherche : les attaques par prompt sont une menace systémique.

2. Une stratégie de sécurité multicouche est essentielle (surveillance, filtrage, renforcement des prompts système).

3. L’alignement éthique et la gouvernance IA deviennent des priorités de management, pas seulement des enjeux techniques

Chez Cleo, nous aidons les entreprises à transformer la veille en un réflexe collectif. Notre but n’est pas de vous donner un outil de plus, mais de vous aider à intégrer un véritable partenaire de décision dans vos équipes.

Newsletter

Hebdomadaire

Weekly Tech News

Découvrez les dernières tendances en IA,

technologie et au-delà !