Le prompt est le texte d'entrée envoyé à un modèle d'IA générative pour déclencher une réponse. En français, on parle aussi d'« invite » ou de « requête ». Le contenu du prompt, sa structure et son niveau de détail influencent directement la pertinence et la forme de la réponse générée.
Comment fonctionne un prompt ?
Les modèles de langage ne « comprennent » pas le texte comme un humain. Ils reçoivent une séquence de tokens (mots ou fragments de mots convertis en identifiants numériques), la traitent à travers des milliards de paramètres, puis génèrent une suite de tokens statistiquement cohérente.
Le prompt constitue l'entrée de ce processus : il détermine le point de départ à partir duquel le modèle calcule la suite la plus probable.
La formulation du prompt conditionne fortement la qualité de la réponse. Si le prompt est vague, le modèle IA n’aura pas assez de contraintes et finira par générer une réponse générique et (généralement) insatisfaisante. Si le prompt est précis, structuré et contextualisé, le modèle disposera d'un cadre qui oriente sa génération vers un résultat exploitable.
La différence entre « parle-moi du marketing » et « liste 5 techniques d'acquisition clients B2B pour une entreprise SaaS en phase de scaling, avec un exemple concret pour chaque technique » produira évidemment deux réponses radicalement différentes en termes de valeur.
Les modèles IA de 2020 acceptaient environ 4 000 tokens en entrée. Aujourd’hui, certains modèles acceptent plus de 200 000 tokens, soit l'équivalent de plusieurs centaines de pages. L’utilisateur peut donc réaliser des prompts poussés pour améliorer la pertinence des réponses. Le marché du prompt engineering (formations, outils…) devrait d’ailleurs croître de 32,8 % chaque année entre 2024 et 2030, selon Grand View Research.
Le prompt dans le quotidien des entreprises
Avant novembre 2022, le terme « prompt » n'existait que dans le vocabulaire des chercheurs en machine learning. Le lancement de ChatGPT a fait basculer ce concept dans le langage courant : en quelques mois, des millions d'utilisateurs ont découvert le prompt et, surtout, le prompt engineering.
Cette démocratisation a créé une nouvelle compétence : savoir rédiger des prompts efficaces. Les plateformes de formation ont rapidement réagi en proposant des modules dédiés, et les offres d'emploi ont commencé à mentionner le prompt engineering comme compétence requise, voire plus :
- Le prompt comme compétence attendue (soft skill) : les recruteurs en marketing, communication, rédaction ou gestion de projet mentionnent la maîtrise des outils d'IA générative et la capacité à formuler des prompts efficaces parmi les compétences souhaitées ;
- Le prompt comme expertise technique (hard skill) : les postes orientés data, développement ou IA exigent une connaissance approfondie des architectures de modèles, des techniques de prompting (few-shot, chain of thought, etc.) et parfois la capacité à rédiger des prompts système ;
- Le prompt comme métier à part entière : certaines entreprises recrutent des « prompt engineers », avec des salaires estimés entre 50 000 € et 120 000 € en France selon l'expérience (Glassdoor, Studyrama, L'Étudiant).
💡 Prompt système vs. prompt utilisateur
Les modèles d'IA générative reçoivent en réalité plusieurs couches de prompts. Le « prompt système » (ou « system prompt ») est défini par les développeurs et reste invisible pour l'utilisateur final : il fixe le comportement général du modèle, ses limites et son ton. Le « prompt utilisateur » est celui que l'utilisateur saisit dans l'interface. La réponse générée résulte de la combinaison des deux. C'est pourquoi certains chatbots refusent de répondre à certaines demandes qui sortent des conditions d’utilisation : le prompt système contient des instructions de filtrage.
