Qu’est-ce que le promptware ? Origines, définition, dangers et mesures de protection Qu’est-ce que le promptware ? Origines, définition, dangers et mesures de protection

Si vous êtes de près ou de loin lié au domaine de l’informatique de nos jours — au sens le plus large du terme — “prompt” est probablement un mot que vous entendez plus souvent que vous ne le souhaiteriez. L’avènement des grands modèles de langage (LLMs), couramment appelés IA, a mis ce mot simple sous les projecteurs, puisque la rédaction de prompts est la manière dont un utilisateur indique à ces modèles quoi faire et quel doit être le résultat.

La portée de l’intelligence artificielle dans tous les aspects de notre vie quotidienne ne cesse de croître. Même en tenant compte des artifices marketing qui exploitent la notion d’IA alors qu’il n’y en a en réalité aucune, la diffusion de la technologie est impressionnante. Et cela rend aussi les choses plus naturelles et utiles : saisir ou énoncer des requêtes (prompts) en langage courant et les voir obéies/exécutées est, dans la plupart des cas, une expérience confortable.

Il y a bien sûr un revers de la médaille. Il semble que plus le système est intelligent, plus il offre de points d’entrée aux malfaiteurs, et plus ils peuvent faire de dégâts une fois aux commandes. Et l’un des moyens d’y parvenir est de déployer une attaque de promptware.

Alors, qu’est-ce que le promptware ?

Le terme promptware a été forgé par un groupe de chercheurs chinois dans leur article “Promptware Engineering: Software Engineering for LLM Prompt Development” (publié le 4 mars 2025) qui, comme son titre l’indique, explore le prompt comme instrument de codage utilisable avec des LLM et propose de formaliser l’ingénierie du promptware en une discipline à part entière, avec sa propre méthodologie et son propre système.

La menace des attaques de promptware

Une autre étude récente, intitulée “Invitation is All You Need”, a montré comment fonctionne concrètement une attaque de promptware. En substance, l’équipe à l’origine de cet article a réussi à tromper l’IA Gemini de Google pour lui faire exécuter quantité d’actions nuisibles, de la perturbation d’une configuration de maison connectée et de l’exploitation de l’écosystème en ligne (spamming, génération de contenu toxique, suppression d’événements du calendrier, exfiltration d’e-mails, etc.) jusqu’au suivi de la localisation de l’utilisateur. L’IA a été contrainte de faire tout cela par une simple invitation de calendrier ; il s’avère que (n’importe quelle ?) action que l’utilisateur entreprend en réponse à un tel événement, comme demander à Gemini d’envoyer une lettre de remerciement, peut être un déclencheur qui déverrouille des instructions malveillantes intégrées dans le titre de l’invitation. Ils indiquent que cela fonctionne aussi avec les lignes d’objet des e-mails.

Piratage de prompts (injection, détournement) vs attaque de promptware

Vous avez peut-être déjà entendu parler du piratage de prompts, de l’injection ou du détournement (ces termes sont largement interchangeables et ne diffèrent que par quelques spécificités assez subtiles). En quoi cette technique diffère-t-elle d’une attaque de promptware ?

Le piratage de prompts consiste à concevoir des prompts de manière à amener un LLM à adopter un comportement non prévu ou nuisible. Les instructions destinées à outrepasser/contourner les restrictions intégrées de l’IA sont insérées dans le prompt. Le terme est apparu en 2022 ; aujourd’hui, c’est une étiquette générique pour les tentatives malveillantes visant à amener des modèles d’IA à faire ce qu’ils ne sont pas censés faire.

L’attaque de promptware décrit un type d’attaque qui exploite les prompts en langage naturel utilisés comme interface de programmation dans le but de contrôler le comportement des LLM. Elle est plus profonde et plus large que le piratage ou l’injection de prompts, et peut d’ailleurs intégrer cette technique comme l’un des composants d’une attaque en cascade. Les attaques de promptware constituent la prochaine étape de l’évolution des activités malveillantes visant à compromettre et à exploiter des écosystèmes d’IA intégrés.

Comment se protéger contre les attaques de promptware

Les injections de prompts ne sont pas nouvelles, ce qui signifie que les développeurs de systèmes d’IA ont déjà mis au point des solutions défensives capables de repousser aussi les attaques de promptware. En outre, de nouvelles règles d’hygiène numérique aident à prévenir toute tournure défavorable des événements.

  • Choisissez des fournisseurs d’IA reconnus. Oui, l’expérience mentionnée ci-dessus exploite l’IA Gemini de Google, mais ce genre de leçon est généralement vite retenu. Si vous cherchez à équiper votre domicile d’un assistant piloté par l’IA, privilégiez des fournisseurs méticuleux dans la protection de leurs clients.
  • Protégez le système contre les accès non autorisés. La plupart des configurations de maison connectée et autres systèmes destinés aux consommateurs s’appuyant sur des LLM permettent d’ajuster le niveau de sécurité, de laxiste à strict. Optez pour strict, même si cela limite les capacités du système en question.
  • Protégez tout le reste de l’IA. La plupart des logiciels aujourd’hui veulent en apprendre le plus possible sur vous, car ce type d’informations peut être monétisé. Les systèmes alimentés par des LLM agiront probablement de manière similaire, quel que soit leur objectif initial. Appliquez le principe du moindre privilège : limitez l’accès de l’IA uniquement aux données ou aux contrôles nécessaires à la tâche spécifique pour laquelle elle est déployée.
  • Surveillez les interactions et le comportement de l’IA. Tout système digne de ce nom conserve des journaux (s’il ne le fait pas, c’est un drapeau rouge) ; parcourez-les de temps à autre et n’hésitez pas à au moins rechercher en ligne les entrées suspectes, ou mieux, contactez le support pour savoir de quoi il retourne.
  • Ne laissez actives que les fonctionnalités nécessaires. Dans un contexte de maison connectée, vous n’avez peut-être, par exemple, plus besoin d’un distributeur automatique de nourriture pour chat. En vous débarrassant de l’appareil physique, n’oubliez pas de le déconnecter de l’IA, lui aussi.

S’il s’agit d’informations que vous pourriez perdre à cause d’une attaque de promptware, il est judicieux de mettre en place un plan de sauvegarde solide. Lisez ces articles pour obtenir des conseils et des recommandations logicielles :

Autres publications de l’auteur

À la une : Flyoobe, un outil de personnalisation de l’installation de Windows 11
Article
À la une : Flyoobe, un outil de personnalisation de l’installation de Windows 11
Flyoobe est, sans doute, l'un des outils de personnalisation de l'installation de Windows 11 les plus populaires. Découvrez ce qu'il peut faire et comment l'utiliser (tout est simple).
Enfin, un superordinateur d'IA pour la maison
Article
Enfin, un superordinateur d'IA pour la maison
Nvidia commence à vendre le DGX Spark, un "superordinateur d’IA personnel" capable d’exécuter des modèles de 200 milliards de paramètres. Le prix est de 3 999 $.
Microsoft supprime une méthode permettant d'installer Windows 11 avec un compte local.
Article
Microsoft supprime une méthode permettant d'installer Windows 11 avec un compte local.
Windows 11 exigera bientôt, lors de l’installation, un compte Microsoft connecté, fermant les failles permettant des installations uniquement locales. Il reste toutefois encore un peu de temps.
Bluetooth dans la voiture : les dangers cachés et comment vous protéger
Article
Bluetooth dans la voiture : les dangers cachés et comment vous protéger
Le Bluetooth embarqué est courant de nos jours; deux études récentes ont révélé qu’il n’est pas vraiment sûr. Lisez la suite pour découvrir les détails et savoir comment vous protéger.