L'AGI, ou Intelligence Artificielle Générale, désigne une IA hypothétique qui dépasserait les capacités cognitives humaines en matière de raisonnement et de résolution de problèmes. Aucune AGI n'existe à ce jour. Les IA actuelles comme ChatGPT, Claude et Gemini sont dites « faibles » ou « étroites » (narrow AI).
Les estimations sur l'arrivée de l'AGI varient considérablement selon les experts :
- Sam Altman, CEO d’OpenAI, évoque un horizon de quelques années ;
- Dario Amodei (Anthropic) promet des premiers modèles opérationnels pour 2026 ;
- Demis Hassabis (Google DeepMind) parle plutôt d’un horizon de 5 à 10 ans ;
- Yann LeCun, directeur scientifique de l’IA chez Meta, estime que les architectures actuelles (les grands modèles de langage ou LLM) ne suffiront pas et que de nouvelles approches restent à inventer.
Une enquête de 2024 auprès de chercheurs en IA situe la probabilité d'atteindre l'AGI à 50 % d'ici 2040. En réalité, personne ne sait vraiment quand ni comment l'AGI émergera. Les annonces des dirigeants de grandes entreprises IA suscitent souvent du scepticisme, car ils ont intérêt à alimenter la « hype » autour de cette promesse pour attirer les investisseurs et les talents.
💡 L’avis de Moon
La course à l'AGI draine des dizaines de milliards de dollars en R&D chaque année. Ces investissements produisent un effet collatéral positif pour les entreprises : les modèles d'IA disponibles sur le marché gagnent en performance et baissent en prix à chaque génération. Entre 2023 et 2025, le coût des API d'OpenAI et d'Anthropic a été divisé par 10 pour des capacités supérieures. Revers de la médaille : l'entraînement des modèles toujours plus grands consomme des quantités massives d'énergie. L'Agence internationale de l'énergie estime que la consommation électrique des data centers liés à l'IA pourrait doubler d'ici 2026.
Au-delà de la question de la faisabilité et des délais, l'AGI soulève des questions de sécurité et de régulation. Une IA capable de raisonnement général pourrait s'améliorer d’elle-même, concevoir de nouvelles technologies ou prendre des décisions à grande échelle sans supervision humaine. C'est pourquoi les grandes entreprises du secteur (OpenAI, Anthropic, Google DeepMind) investissent dans la recherche sur l'alignement : s'assurer que l’AGI ou, a minima, toute forme d’IA avancée, poursuive des objectifs compatibles avec les intérêts humains.
Entré en vigueur en février 2025, l'AI Act européen anticipe également ces risques en imposant des exigences renforcées pour les modèles dits « à usage général » (GPAI), une catégorie intermédiaire entre l'IA étroite (que nous utilisons aujourd’hui) et une hypothétique AGI.
💡 L’avis de Moon
L'AGI est un concept utile pour comprendre les débats sur l'avenir de l'IA, mais il n'a aucune application opérationnelle immédiate dans le monde de l’entreprise. Il faut simplement connaître le concept pour décoder le discours des éditeurs de solutions IA et faire preuve de réalisme et d’esprit critique face aux prestataires qui promettent des capacités proches de l’AGI.
