Intelligence Artificielle (IA)

L'intelligence artificielle (IA) désigne un ensemble de techniques informatiques qui permettent à des machines d'exécuter des tâches habituellement réservées à l'intelligence humaine. Ces techniques reposent sur des algorithmes qui analysent des données pour en extraire des régularités, puis appliquent ces régularités à de nouvelles situations. 

Il était une fois… l’intelligence artificielle

Le terme a été créé en 1956 lors de la conférence de Dartmouth, aux États-Unis, par un groupe de chercheurs qui ont posé l'hypothèse suivante : tout aspect de l'intelligence humaine peut être décrit avec suffisamment de précision pour qu'une machine puisse le simuler.

Le yo-yo des financements

Les années qui suivent sont marquées par un optimisme débordant. En 1957, Herbert Simon, l'un des participants de Dartmouth, prédit qu'une machine battra un humain aux échecs dans les dix années suivantes. Les financements affluent, notamment de l'armée américaine. Les chercheurs développent les premiers programmes capables de démontrer des théorèmes mathématiques ou de jouer aux dames.

Mais les résultats tardent à se produire. Les ordinateurs de l'époque manquent de mémoire et de puissance de calcul. Les programmes ne fonctionnent que sur des problèmes simples, voire enfantins. En 1973, un rapport commandé par le gouvernement britannique conclut que les promesses de l'IA « ont été surestimées ». Les financements s'effondrent. 

Cette période de gel, qui dure de 1974 à 1980, est suivie d'un regain d'intérêt dans les années 1980 avec les systèmes experts : des programmes qui codifient les connaissances d'un spécialiste humain sous forme de règles logiques. Les entreprises investissent à nouveau massivement, mais ces systèmes atteignent vite leurs limites : au-delà de quelques centaines de règles, leur maintenance devient ingérable. Les financements retombent à nouveau de 1987 à 1993.

Le tournant du deep learning (2010)

Le vrai changement de paradigme intervient dans les années 2010 avec l'apprentissage profond (deep learning). Cette technique utilise des réseaux de neurones artificiels à plusieurs couches qui permettent aux machines d'apprendre à reconnaître des images, du son et du texte à partir d'exemples, sans qu'un humain n’ait besoin de programmer chaque règle. 

Trois dates marquent cette accélération :

  • 1997 : Deep Blue, un supercalculateur d'IBM, bat le champion du monde d'échecs Garry Kasparov. La prédiction d’Herbert Simon se réalise, avec 40 ans de retard ;
  • 2012 : un réseau de neurones (AlexNet) remporte une compétition de reconnaissance d'images avec une grosse marge d'avance sur les méthodes classiques. L'apprentissage profond devient la référence pour ce type de tâche ;
  • 2016 : AlphaGo (Google DeepMind) bat le champion du monde de Go, un jeu réputé trop complexe pour les machines en raison du nombre astronomique de configurations possibles.

Ces avancées restent toutefois confinées aux laboratoires et aux géants technologiques. Pour la plupart des entreprises, l'IA demeure un sujet abstrait, voire futuriste, plutôt qu’un outil opérationnel. Mais la situation va brutalement changer un 30 novembre 2022.

L’IA dans les entreprises : la disruption de 2022

En réalité, l'intelligence artificielle existait déjà dans le quotidien de millions de personnes depuis le début des années 2000, mais de manière invisible, « sous le capot » : 

  • Les algorithmes de recommandation de Netflix et Spotify ; 
  • La reconnaissance faciale des smartphones ; 
  • Les filtres anti-spam de Gmail ; 
  • La traduction automatique de Google et DeepL ; 
  • Les assistants vocaux Siri et Alexa.

Seuls les géants des nouvelles technologies et de la finance, et quelques gouvernements, exploitaient l’IA naissante : la finance pour la détection de fraudes et le trading algorithmique, la logistique pour l'optimisation des itinéraires, l'industrie pour la maintenance prédictive, la publicité en ligne pour le ciblage des audiences, etc. 

Ces usages supposaient des équipes de data scientists, des budgets conséquents et des volumes de données suffisants pour entraîner des modèles. Pour une PME, un cabinet d'avocats, un artisan ou une agence de communication, l'IA était davantage une curiosité, un sujet de conférence, pas un outil de travail.

Le 30 novembre 2022, OpenAI lance ChatGPT. En cinq jours, l'outil atteint un million d'utilisateurs. En deux mois, il dépasse les 100 millions… un record absolu, loin devant Instagram qui a eu besoin de 2 ans et demi pour atteindre cette masse d’utilisateurs, ou encore TikTok (neuf mois). Ce succès fulgurant tient à la combinaison de deux éléments : 

  • Un saut qualitatif dans les capacités du modèle. GPT-3.5, qui propulse la première version de ChatGPT, produit des réponses cohérentes, nuancées et contextuelles sur une variété de sujets ; 
  • L'interface conversationnelle. Avant ChatGPT, l’utilisation d’un modèle de langage exigeait des compétences techniques (passer par une API, écrire du code…). ChatGPT se présente comme une simple fenêtre de dialogue, comme WhatsApp ou Messenger que l’on utilise déjà plusieurs fois par jour. Cette familiarité a supprimé la barrière d'entrée technique. 

Pour la première fois, un salarié sans compétences techniques particulières pouvait déléguer une partie de ses tâches à une machine, depuis son ordinateur grand public, en quelques secondes.

💡 L'IA, une disruption comparable à l'arrivée d'internet

Entre 1995 et 2000, les entreprises ont dû apprendre à intégrer internet dans leurs opérations : créer un site web, communiquer par email, repenser la relation client, adapter leur modèle de distribution... Celles qui ont tardé à s'y mettre ont perdu des parts de marché au profit de concurrents plus réactifs ou de nouveaux entrants nés sur le web. L'IA générative provoque aujourd'hui une bascule similaire, notamment dans le volet administratif, le marketing, l’analyse de données, l’informatique, la formation, la stratégie... Les entreprises qui intègrent ces outils dans leurs processus gagnent en productivité. Celles qui les ignorent prennent le risque de se faire distancer par des concurrents qui produisent plus vite, à moindre coût, pour une meilleure compétitivité.