L'IA forte, ou intelligence artificielle générale (AGI), désigne une forme hypothétique d'intelligence artificielle dotée de conscience. Elle comprendrait ce qu'elle manipule, apprendrait de manière autonome sans intervention humaine et transposerait ses acquis d'un domaine à un autre sans entraînement préalable. Aucun système de ce type n'existe aujourd'hui.
L’IA forte, de 1980 à aujourd’hui
Le philosophe américain John Searle a introduit les termes « IA forte » et « IA faible » en 1980 dans son article « Minds, Brains and Programs ». Son objectif était de distinguer deux conceptions radicalement différentes de l'intelligence artificielle :
- La première, défendue par certains de ses collègues cognitivistes, supposait qu'un programme informatique suffisamment complexe pourrait accéder à la compréhension et à la conscience ;
- La seconde, celle des informaticiens, se limitait à créer des systèmes capables de simuler des comportements intelligents sans prétendre reproduire « un esprit ».
Pour illustrer son argument, Searle a imaginé l'expérience de la « chambre chinoise ». Une personne enfermée dans une pièce reçoit des questions en chinois sans connaître cette langue. Elle dispose d'un manuel de règles qui lui indique quelle réponse renvoyer pour chaque symbole reçu. De l'extérieur, ses réponses sont indiscernables de celles d'un locuteur natif. Pourtant, cette personne ne comprend pas un mot de ce qu'elle manipule.
Searle en conclut qu'un programme informatique, aussi sophistiqué soit-il, ne fait que traiter des symboles selon des règles syntaxiques, sans jamais accéder au sens. Une machine peut très bien simuler la compréhension (comme le fait aujourd’hui ChatGPT), mais simuler n'est pas comprendre.
Le terme « intelligence artificielle générale » (AGI) est apparu en 1997 pour désigner cette même ambition sous un angle plus technique. Plus de 45 ans après l'article de Searle, aucun laboratoire n'a pu produire de système répondant aux critères de l'IA forte. Les modèles actuels comme GPT ou Claude impressionnent par leurs performances, mais leurs concepteurs eux-mêmes reconnaissent qu'ils relèvent toujours de l'IA faible.
L'IA générale : un objectif réaliste ?
Les dirigeants des principaux laboratoires d'IA affichent des prédictions convergentes :
- En janvier 2025, Sam Altman (OpenAI) a déclaré que son entreprise savait désormais « comment construire l'AGI » ;
- La même année, Dario Amodei (Anthropic) a estimé qu'une IA « meilleure que les humains dans presque toutes les tâches » pourrait émerger « dans les deux ou trois prochaines années » ;
- Demis Hassabis (Google DeepMind) situe l'horizon entre 5 et 10 ans.
Il faut toutefois noter que ces déclarations proviennent d'acteurs qui ont un intérêt direct à maintenir l'attention des investisseurs… car les obstacles techniques restent substantiels notamment parce que :
- Les données d'entraînement de haute qualité disponibles sur internet commencent à s'épuiser ;
- Et une part croissante des nouveaux textes publiés en ligne provient elle-même de modèles de langage.
💡 Comment rapprocher une machine de la conscience ?
Améliorer les scores sur les benchmarks, accélérer l'inférence, multiplier les paramètres… rien de tout cela ne rapproche mécaniquement d'une machine consciente. Les architectures IA actuelles prédisent des séquences de mots, mais aucune théorie n'établit qu'une prédiction suffisamment précise, répétée suffisamment longtemps, finit par produire une conscience. Et aucune expérience ne permettrait de le vérifier.
