La température est un paramètre des modèles de langage qui ajuste la distribution de probabilité des mots au moment de la génération. Une température basse (proche de 0) concentre la sélection sur les mots les plus probables, produisant des réponses prévisibles et répétables. Une température élevée (proche de 1 ou au-delà) élargit la sélection à des mots moins probables, produisant des réponses plus originales.
Quelle température pour quel cas d’usage ?
La température est un paramètre qui s'exprime généralement sur une échelle de 0 à 1 (parfois jusqu'à 2 selon les modèles). Plus la valeur est basse, plus les réponses du modèle sont prévisibles et constantes. Plus elle est haute, plus les réponses varient d'une réponse à l'autre.
Avec une température basse (0 à 0,3), le modèle produit des réponses quasi identiques à chaque exécution d'un même prompt. Cette constance est recherchée dans plusieurs cas d’usage :
- Réponses standardisées d'un chatbot de support client (les clients doivent recevoir la même information pour la même question) ;
- Extraction automatique d'informations depuis des factures, devis ou contrats (montants, dates, noms de fournisseurs) ;
- Génération de comptes rendus de réunion à partir d'une transcription, où le format doit rester constant ;
- Traduction de documentation produit ou de fiches techniques…
Avec une température haute (0,8 à 1), le modèle explore des formulations moins attendues et produit des réponses différentes à chaque exécution. Cette variabilité est appréciée dans les cas d’usage marketing :
- Brainstorming et génération d'idées multiples à partir d'un même brief ;
- Rédaction créative (slogans, accroches publicitaires, textes de fiction) ;
- Reformulation de contenu existant sous plusieurs angles ;
- Génération de variations pour des tests A/B (objets d'emails, titres d'articles).
La température par défaut dans les chatbots grand public est généralement comprise entre 0,4 et 0,6 (sur 1). Le modèle reste cohérent et pertinent tout en introduisant une légère variation qui rend les échanges plus naturels.
Comment fonctionne la température dans les modèles de langage ?
Le modèle de langage génère du texte token par token (un token correspond à un mot ou un fragment de mot). À chaque étape, il s'appuie sur le texte déjà produit pour calculer quel token a le plus de chances de venir ensuite.
Prenons une phrase en cours de génération : « Nous accusons réception de votre… ». Le modèle attribue une probabilité à chaque token candidat : « commande » obtient 50 %, « demande » 30 %, « message » 12 %, et « candidature » 5 %. Il doit ensuite en choisir un pour continuer.
La température intervient à ce moment précis. Elle modifie la répartition des probabilités avant que le modèle ne fasse son choix :
- Avec une température basse, les écarts se creusent. « Commande », déjà en tête, passe de 50 % à plus de 90 %. Le modèle choisit presque systématiquement le token le plus probable ;
- Avec une température haute, les écarts s'aplatissent. « Demande », « message » et « candidature » gagnent du terrain. Le modèle pioche plus souvent dans les options alternatives, ce qui produit des formulations plus variées.
💡 Comment ajuster la température dans votre chatbot IA ?
Dans l'interface de ChatGPT, le paramètre température n'est pas directement accessible aux utilisateurs. Il faut passer par l'API OpenAI ou créer un GPT personnalisé pour le modifier. Claude propose un curseur de température dans les paramètres avancés de son API, mais pas dans l'interface web grand public. Les plateformes comme Poe, TypingMind ou les playgrounds des éditeurs (OpenAI Playground, Anthropic Console) permettent en revanche d'ajuster la température directement dans l'interface.
