IA
Prompt Injection : comprendre les attaques LLM et s'en protéger
Définition : Qu'est-ce que le Prompt Injection ?
Le prompt injection (ou injection de prompt) est une technique d'attaque qui consiste à manipuler un modèle de langage (LLM) via des instructions cachées ou détournées dans le texte d'entrée. L'objectif : faire exécuter au modèle des actions non prévues, contourner ses garde-fous de sécurité, ou lui faire divulguer des informations sensibles.
En termes simples : c'est l'équivalent de l'injection SQL, mais pour les LLMs. Au lieu d'injecter du cod
Jean-Michel Helem
·
20 novembre 2025
·
10 min