L'apprentissage few-shot (ou few-shot learning) permet à un modèle IA d'apprendre une nouvelle tâche à partir de quelques exemples seulement, généralement entre 2 et 10. Cette technique s'oppose à l'apprentissage supervisé classique qui nécessite des milliers ou des millions de données étiquetées pour entraîner un modèle.
Dans les modèles de langage, l'apprentissage few-shot se fait par prompting : l’idée est d’intégrer directement les exemples que l’on considère comme « réussis » dans la requête envoyée au chatbot. Cette technique se décline en trois variantes selon le nombre d'exemples fournis :
- Zero-shot : aucun exemple fourni, le modèle doit comprendre la tâche uniquement depuis l'instruction textuelle (par exemple s’il faut suivre une norme ou un format universellement reconnu(e) comme l’ISO, les formats JSON standard, les conventions de nommage universelles, les normes comptables IFRS, etc.) ;
- One-shot : un seul exemple fourni pour illustrer la tâche attendue ;
- Few-shot : entre 2 et 10 exemples fournis pour clarifier le type de réponse attendu.
Prenons un exemple concret. Une PME veut classifier automatiquement ses emails clients en trois catégories : réclamation, question technique, demande commerciale :
- En zero-shot, elle demande directement au chatbot de classifier sans exemple ;
- En few-shot, elle fournit 5 exemples de chaque catégorie dans le prompt avant de lui soumettre les nouveaux emails à classifier. Le modèle apprend le pattern depuis ces exemples et l'applique aux cas suivants.
L'apprentissage few-shot par prompting présente un avantage décisif pour les entreprises : il ne nécessite aucun fine-tuning. Il suffit de travailler sur les modèles grand public en orientant le prompt vers cette approche.
💡 Quand passer au fine-tuning ?
L'apprentissage few-shot via prompting convient à 90 % des besoins des PME et ETI. Le fine-tuning devient pertinent quand les tâches exigent une expertise sectorielle ultra-spécifique (terminologie scientifique rare, nomenclature industrielle propriétaire), quand le volume de traitements justifie l'investissement (plusieurs milliers de requêtes par jour), ou quand la confidentialité impose d'héberger le modèle sur serveurs internes. Le coût et la complexité du fine-tuning dépassent largement ceux de l'apprentissage few-shot.
