Technique qui consiste à réutiliser un modèle d'IA déjà entraîné sur une tâche pour l'adapter à une tâche différente mais apparentée. Au lieu de repartir d’une page blanche, le modèle conserve les connaissances acquises lors de son premier entraînement et les applique au nouveau problème.

Transfer learning : fonctionnement et intérêt

Pour entraîner un modèle d'IA à partir de zéro, il faut trois ressources : 

  • Des données en grande quantité ; 
  • De la puissance de calcul ; 
  • Du temps. 

Par exemple, pour qu'un réseau de neurones apprenne à reconnaître des images de produits défectueux sur une chaîne de production, il faudrait lui montrer des milliers, voire des dizaines de milliers d'exemples annotés (des images de produits défectueux et des images de produits « sains »). La plupart des PME ne disposent pas de tels volumes.

C'est précisément pour répondre à cette contrainte que les chercheurs en machine learning ont développé la technique du Transfer learning. Le principe : partir d'un modèle IA déjà entraîné sur une tâche générique (reconnaître des objets dans des images, comprendre du texte en français) et l'adapter à une tâche plus spécifique avec un jeu de données réduit. 

Le modèle a déjà appris à détecter des formes, des contours et des structures syntaxiques. Il ne reste qu'à lui enseigner les particularités du nouveau problème. En pratique, l'adaptation prend plusieurs formes :

  • Feature extraction : les couches profondes du modèle restent figées, seules les dernières couches sont réentraînées sur les nouvelles données ;
  • Fine-tuning : l'ensemble du modèle est réentraîné, mais avec un taux d'apprentissage faible pour préserver les connaissances acquises tout en les ajustant ;
  • Adaptation de domaine : le modèle apprend à transposer ses connaissances d'un contexte à un autre (par exemple, d'avis clients en anglais vers des avis en français).

Là où un entraînement complet prendrait plusieurs jours et des milliers d'exemples, un fine-tuning optimisé peut aboutir à de bons résultats en quelques heures avec quelques centaines d'exemples.

Transfer learning : quels cas d’usage en entreprise ?

Les grands modèles pré-entraînés accessibles aujourd'hui sur le marché (ResNet, BERT, GPT, Whisper, etc.) ont été développés par des laboratoires disposant de ressources considérables : des millions d'images, des milliards de mots, des semaines de calcul sur des clusters de GPU…

Ces modèles sont mis à disposition gratuitement ou à faible coût. Les PME peuvent donc s'appuyer sur ce socle de connaissances génériques et n'investir que dans l'adaptation à leur contexte métier.

Voici les applications les plus courantes en entreprise :

  • Reconnaissance d'images métier : un modèle de vision par ordinateur pré-entraîné sur ImageNet (14 millions d'images génériques) peut être adapté pour détecter des défauts sur une ligne de production, identifier des pièces dans un catalogue ou classer des documents numérisés selon leur type (facture, bon de commande, contrat) ;
  • Analyse de texte en français : les modèles de langage comme CamemBERT (version française de BERT) permettent de classer automatiquement des emails entrants par urgence ou par thématique, d'extraire des informations clés dans des contrats ou encore de détecter le sentiment dans des avis clients ;
  • Reconnaissance vocale spécialisée : le modèle Whisper d'OpenAI, entraîné sur 680 000 heures d'audio, peut être affiné pour transcrire des termes techniques propres à un secteur (médical, juridique, industriel) ou s'adapter à un accent régional ;
  • Chatbots et assistants internes : un modèle de langage généraliste peut être adapté au vocabulaire et aux procédures d'une entreprise pour répondre aux questions des collaborateurs sur la politique RH, les process internes ou la documentation technique, sans avoir à lui apprendre le ton, les limites, la loi, etc.

💡 Où trouver des modèles IA pré-entraînés pour votre PME ?

Hugging Face (huggingface.co) est la principale plateforme de partage de modèles pré-entraînés. Elle référence plus de 500 000 modèles en accès libre : vision par ordinateur, traitement du langage, reconnaissance vocale, génération d'images... Chaque modèle est accompagné d'une documentation, d'exemples de code et d'indicateurs de performance. TensorFlow Hub et PyTorch Hub proposent également des catalogues fournis. Pour une PME qui souhaite expérimenter le Transfer learning, le point de départ consiste à identifier sur ces plateformes un modèle entraîné sur une tâche proche de son besoin, puis à le tester sur ses propres données avant d'investir dans un fine-tuning.