Le system prompt est un ensemble d'instructions transmises à un modèle de langage avant qu'il ne reçoive les messages de l'utilisateur. Ces instructions définissent le comportement du modèle : son rôle, son ton, ses limites (sujets à éviter) et ses contraintes de format (longueur des réponses).

System prompt : fonctionnement et intérêt (+ exemple)

ChatGPT, Claude, Gemini et les autres chatbots IA du marché ne sont pas des modèles de langage bruts : ce sont des modèles configurés par un system prompt. Avant même que l'utilisateur n'écrive son premier message, le modèle a déjà reçu plusieurs milliers de mots d'instructions qui définissent sa personnalité, ses capacités et ses limites. 

Techniquement, le modèle ne distingue pas le system prompt des messages de l'utilisateur : il reçoit l'ensemble sous forme de texte concaténé. Cette absence de séparation technique explique pourquoi des attaques par prompt injection peuvent amener un modèle à ignorer ses instructions initiales ou à les divulguer. En février 2023, l'étudiant Kevin Liu a par exemple réussi à faire révéler le system prompt de Bing Chat en formulant une requête qui imitait une instruction système.

Les utilisateurs de ChatGPT et Claude, entre autres, peuvent rédiger leurs propres system prompts pour créer des assistants personnalisés. Ils peuvent également passer par l’API de ces éditeurs pour créer, par exemple, un chatbot de support client. Pour une PME spécialisée dans les logiciels de facturation pour TPE, ce chatbot pourrait recevoir les instructions suivantes :

  • Rôle : « Tu es l'assistant support de FacturaPro, un logiciel de facturation destiné aux artisans, commerçants et auto-entrepreneurs. Tu réponds aux questions sur l'utilisation du logiciel : création et envoi de factures, gestion des devis, suivi des paiements, exports comptables, paramétrages du compte, intégrations bancaires et synchronisation avec les outils tiers. » 
  • Ton : « Nos utilisateurs ne sont pas des techniciens. Formule tes réponses de manière simple et concrète, avec des étapes numérotées quand tu expliques une manipulation. Si tu utilises un terme technique (API, webhook, format SEPA), explique-le brièvement entre parenthèses. » 
  • Limites : « Tu es un assistant logiciel, pas un conseiller fiscal, juridique ou comptable. Tu n'interprètes pas la réglementation, tu ne calcules pas de montants de TVA, tu ne donnes pas d'avis sur la conformité d'une facture au regard de la loi. Si la question porte sur ces sujets, indique que tu n'es pas habilité à y répondre et recommande à l'utilisateur de consulter son expert-comptable ou l'administration fiscale. » 
  • Escalade : « Si l'utilisateur signale un dysfonctionnement que tu ne peux pas résoudre, un problème de paiement ou d'abonnement, ou s'il exprime une insatisfaction répétée, propose-lui de contacter l'équipe support à support@facturapro.fr. Génère un résumé de la conversation qu'il pourra transmettre. » 
  • Sources : « Tu t'appuies exclusivement sur la documentation produit et la FAQ intégrées à ta base de connaissances. Si une question dépasse cette documentation, dis-le explicitement. Ne reconstitue jamais une réponse à partir d'hypothèses. »

💡 Créer un GPT customisé avec un system prompt

ChatGPT permet à ses utilisateurs payants de créer des « GPTs », des assistants personnalisés configurés par un system prompt. Les PME peuvent ainsi créer des assistants internes accessibles à leurs collaborateurs : un GPT alimenté par le catalogue produit pour aider les commerciaux à répondre aux questions techniques, un GPT formé sur les procédures internes pour accélérer l'intégration des nouvelles recrues, etc. Les formations Moon vous aident à maîtriser cette fonctionnalité clé dans la transformation de votre PME par l'IA.