L'IA faible désigne tout système d'intelligence artificielle qui ne possède ni conscience ni capacité à comprendre. Ces systèmes traitent des données selon des modèles statistiques ou des règles prédéfinies sans saisir le sens de ce qu'ils manipulent. L'intégralité des systèmes d'IA commercialisés aujourd'hui relève de l'IA faible.
L’adjectif « faible » vient de l'opposition avec l'IA forte (ou IA générale), une intelligence artificielle hypothétique qui serait capable de raisonner, d'apprendre et de s'adapter à n'importe quelle situation comme le ferait un humain. L'IA forte posséderait une conscience et une compréhension générale de notre monde.
« Faible » signifie donc « en deçà de l'intelligence humaine générale », et non « peu performant » :
- Un système de reconnaissance faciale identifie un visage dans une foule en quelques millisecondes, bien plus vite qu'un humain ;
- Un modèle de langage peut, avec le bon entraînement, rédiger un bon contrat en 30 secondes.
Ces outils surpassent les capacités humaines en vitesse, en volume et parfois en précision, mais n’ont pas conscience de ce qu’ils font et ne développent pas de compréhension au sens propre des concepts qu’ils développent. « Faible » qualifie donc le type d’intelligence, pas forcément sa performance.
L'IA forte reste aujourd'hui un concept théorique. Aucun laboratoire n'a produit de système doté de conscience ou de compréhension générale. Les débats portent d'ailleurs sur la possibilité même d'y parvenir un jour, et sur la manière dont on pourrait vérifier qu'une machine serait susceptible de « comprendre ».
ChatGPT, Claude et Gemini : une IA faible ou forte ?
Tous les modèles d’intelligence artificielle qui existent aujourd’hui sur le marché relèvent de l'IA faible. Leur fonctionnement repose sur la prédiction de texte. Quand vous posez une question, le modèle calcule, mot après mot, le terme le plus probable à placer ensuite dans la séquence. Il s'appuie sur des milliards de textes ingérés pendant son entraînement pour établir ces probabilités.
Le résultat ressemble à une réponse réfléchie, parfois plus claire et mieux structurée que ce qu'un humain produirait, mais aucun raisonnement conscient ne se déroule derrière.
Ces modèles génèrent du texte cohérent, traduisent, résument, codent, analysent. Leurs performances impressionnent parce qu'elles imitent le résultat d'une intelligence humaine, mais le processus sous-jacent reste purement statistique. Ils n'ont pas d'intentions, pas de représentation du monde extérieur.
Que pourrait faire une IA forte dans la pratique ?
L’IA forte n’existe pas (encore), mais les chercheurs s'accordent globalement sur ce qui la distinguerait des systèmes actuels.
Elle apprendrait de manière autonome dans des domaines qu'elle n'a jamais rencontrés pendant son entraînement. Face à un problème nouveau, elle ne chercherait pas dans une base de patterns statistiques déjà vus. Elle construirait un raisonnement inédit à partir de principes qu'elle aurait elle-même dégagés, comme un humain qui découvre un sujet pour la première fois.
Cette capacité de raisonnement lui permettrait de transférer ses acquis d'un domaine à un autre. Une compétence développée en résolvant des problèmes de physique l'aiderait par exemple à aborder un problème de biologie ou d'économie. Les modèles actuels comme ChatGPT ne fonctionnent pas ainsi : ils appliquent des corrélations statistiques propres à chaque type de texte rencontré pendant l'entraînement, sans lien transversal.
Au-delà du raisonnement, l’IA forte posséderait une représentation du monde, une continuité dans le temps et des objectifs propres. Elle pourrait, par exemple, refuser une tâche parce qu'elle la juge inutile ou contraire à ses valeurs, pas parce qu'un filtre programmé par ses concepteurs l'y contraint.
💡 L’IA forte : un objectif à moyen terme
Sam Altman (OpenAI), Demis Hassabis (Google DeepMind) et Dario Amodei (Anthropic) considèrent l'IA générale comme un objectif atteignable à moyen terme, entre 5 et 20 ans selon les estimations. Leurs déclarations divergent sur le calendrier, mais convergent sur un point : les modèles actuels, aussi impressionnants soient-ils, restent des étapes intermédiaires vers une intelligence capable de raisonner, d'apprendre et de s'adapter sans supervision humaine.
