Prompt engineering

Le prompt engineering désigne l'ensemble des techniques utilisées pour concevoir, structurer et affiner les prompts envoyés aux modèles d'IA générative. Ces techniques permettent d'orienter la génération du modèle vers un résultat spécifique : format, niveau de détail, style, raisonnement... Elles vont de la simple reformulation à des méthodes avancées comme le « chain-of-thought ».

La brève histoire du prompt engineering

Jusqu'en 2020, les modèles de langage restaient cantonnés aux laboratoires de recherche et aux équipes techniques des grandes entreprises. Les ingénieurs en machine learning les utilisaient pour des tâches de classification ou de traduction, mais ces modèles nécessitaient un entraînement supplémentaire (« fine-tuning ») pour chaque nouvelle application. L'idée même de formuler une instruction en langage naturel pour obtenir un résultat n'existait pas encore.

En juin 2020, OpenAI publie GPT-3, un modèle de 175 milliards de paramètres. Sa particularité : il peut accomplir des tâches variées sans fine-tuning, simplement en recevant une instruction textuelle dans le prompt. 

Les chercheurs constatent alors que la formulation de cette instruction influence fortement la qualité du résultat. Les premières études systématiques sur la structure des prompts démarrent !

En 2021, des travaux formalisent le « few-shot learning » : le fait d’inclure quelques exemples dans le prompt améliore les performances sur les tâches où l'instruction seule ne suffit pas. En 2022, des chercheurs de Google publient la technique « chain-of-thought » : il s’agit de demander au modèle d'expliciter son raisonnement, étape par étape, pour améliorer sa performance sur la résolution des problèmes logiques et arithmétiques.

La même année, le lancement de ChatGPT ouvre l'accès au grand public. L’utilisation massive de l’outil nourrit les recherches sur le prompt engineering et fait émerger de nouvelles techniques et bonnes pratiques.

Les principales techniques de prompt engineering

Depuis, de nouvelles techniques apparaissent chaque année (tree-of-thought, self-consistency, chain-of-draft), et les éditeurs de modèles (OpenAI, Anthropic, Google) publient leurs propres guides de bonnes pratiques. Voici les techniques de prompt engineering les plus utilisées aujourd’hui en entreprise.

Le Zero-shot prompting 

Le modèle reçoit une instruction directe, sans aucun exemple. Cette technique est adaptée aux tâches simples que le modèle maîtrise déjà grâce à son entraînement. Il peut, par exemple, s’agir de résumer un email, traduire un texte, donner la définition d’un terme technique, etc.

Le Few-shot prompting 

Le prompt intègre quelques exemples du résultat attendu avant de poser la tâche. Le modèle s'appuie sur ces exemples pour reproduire le format, le ton ou la logique. 

Par exemple : « Voici comment je reformule les objets de mails pour mon équipe commerciale : "Relance devis" devient "Votre devis expire dans 48h". "Demande de RDV" devient "15 min pour en discuter ?". Reformule maintenant : cette liste d’objets ». Le modèle reproduit le style engageant et orienté action.

La Chain-of-thought (CoT) 

Le prompt demande au modèle d'expliciter son raisonnement étape par étape avant de donner la réponse finale. Cette technique est très efficace pour résoudre les problèmes arithmétiques, logiques ou multi-étapes. 

Exemple : « Mon client a commandé 150 unités à 12 € HT. Il bénéficie d'une remise de 10 % et la TVA est à 20 %. Calcule le montant TTC final. Raisonne étape par étape. » Le modèle détaille le calcul. Cette technique améliore la probabilité d’obtenir une bonne réponse et vous donne la possibilité de fact-checker.

Le Role prompting 

L’idée est d’attribuer une expertise au modèle pour orienter le ton, le vocabulaire et le niveau de détail. Exemple : « Tu es un juriste spécialisé en droit du travail français. Explique les conditions de validité d'une clause de non-concurrence. » Dans l’idéal, il faudrait alimenter le modèle IA d’un document rigoureux sur lequel il pourrait s’appuyer pour compléter ses connaissances. 

La Self-consistency 

Le modèle génère plusieurs chaînes de raisonnement indépendantes pour une même question, puis compare les réponses finales obtenues. La réponse retenue est celle qui apparaît le plus souvent parmi ces sorties, sur la base d’un simple comptage des occurrences.

Exemple : « Faut-il augmenter les prix sur ce segment B2B ? », le modèle génère plusieurs raisonnements différents à partir des mêmes données internes (marges actuelles, taux de churn, sensibilité prix des clients, pression concurrentielle…). 

Certains raisonnements concluent à une hausse, d’autres à un statu quo. Si, sur 10 raisonnements produits, 7 aboutissent à une augmentation de 5 % et trois à un maintien des prix, la méthode de self-consistency conduit le modèle à retenir l’option « augmentation de 5 % », parce que cette conclusion apparaît le plus souvent parmi les réponses finales.

💡 Pourquoi le prompt engineering offre un ROI exceptionnel aux PME 

Le prompt engineering augmente la capacité effective de l’IA à traiter des demandes complexes, mal structurées ou à forte contrainte métier, là où une requête « naïve » produit des réponses génériques ou inutilisables. Cette montée en qualité élargit le périmètre des tâches réellement déléguables au modèle : analyses comparatives, pré-diagnostics, arbitrages documentés, préparation de livrables décisionnels... Le ROI est tout simplement phénoménal. Pour une PME, la formation au prompt engineering produit un effet de levier immédiat sur la charge cognitive des équipes et sur leur capacité à traiter des sujets plus complexes à effectif constant.