Veille

Quelle est la loi sur l'intelligence artificielle en France ?

Summarize this article with:

L'intelligence artificielle évolue à une vitesse fulgurante, obligeant le législateur à s'adapter pour protéger les citoyens sans pour autant briser l'innovation technologique, un enjeu que tout cabinet de conseil IA doit aujourd’hui intégrer dans ses recommandations. À l’heure actuelle, il n'existe pas de loi française isolée dédiée uniquement à l'intelligence artificielle au niveau national. En effet, la France est soumise à l'AI Act (Législation européenne sur l'IA), un règlement européen historique définitivement adopté en 2024, qui s'applique directement et uniformément à tous les États membres de l'Union européenne.

Ce texte pionnier impose des règles strictes basées sur le niveau de risque que représente chaque système d'IA. En complément de cette nouvelle réglementation, les intelligences artificielles déployées en France doivent impérativement se conformer à l'arsenal juridique préexistant, notamment le RGPD sous le contrôle strict de la CNIL, et le Code de la propriété intellectuelle.

L'AI Act européen : le cadre légal principal en France

Puisque l'Union Européenne a légiféré sur le sujet à l'échelle communautaire, la France applique directement ce règlement sans avoir besoin de voter une loi nationale transposée. L'approche de l'AI Act n'est pas d'interdire la technologie en bloc, mais de la réguler proportionnellement en fonction des dangers qu'elle représente pour les droits fondamentaux, la santé et la sécurité des citoyens.

La classification des IA par niveaux de risque

L'Union européenne a fait le choix d'une approche par les risques. Plus un système a un impact potentiel fort sur la vie d'un individu, plus les règles sont contraignantes. Voici comment la loi classe les systèmes d'intelligence artificielle :

Niveau de risque Réglementation imposée Exemples de systèmes d'IA
Inacceptable Interdiction totale (sauf exceptions très strictes et encadrées pour les forces de l'ordre). Notation sociale (social scoring), manipulation cognitive, reconnaissance faciale en temps réel dans l'espace public.
Élevé Obligations strictes avant mise sur le marché : tests de sécurité, transparence, supervision humaine, enregistrement dans une base de données de l'UE. IA pour le tri des CV (recrutement), diagnostic médical assisté, notation de crédit bancaire, éducation.
Limité Obligation de transparence stricte (l'utilisateur final doit savoir expressément qu'il interagit avec une machine). Chatbots (type ChatGPT, Claude), génération de deepfakes, filtres d'images.
Minime Aucune obligation légale spécifique au titre de l'AI Act (l'adhésion à un code de conduite volontaire est toutefois encouragée). Filtres anti-spam de messagerie, IA comportementale dans les jeux vidéo.

Des sanctions prévues pour dissuader les abus

Les sanctions prévues par l'AI Act en cas de non-respect sont particulièrement dissuasives, s'inspirant du modèle du RGPD. Elles peuvent atteindre des montants record : jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial de l'entreprise fautive pour les infractions les plus graves, telles que l'utilisation ou la commercialisation d'une IA classée au niveau de risque inacceptable.

Qui contrôle l'intelligence artificielle en France ? 

En France, le contrôle de l'intelligence artificielle est partagé entre plusieurs instances selon le domaine d'application. La CNIL est l'acteur principal qui régule l'IA sous l'angle de la protection des données personnelles. Pour les questions de concurrence et de protection des consommateurs face aux algorithmes, c'est la DGCCRF qui intervient. Enfin, l'ARCOM est chargée de surveiller les dérives liées aux deepfakes et à la manipulation de l'information générée par l'IA sur les plateformes numériques et les médias.

Est-ce que ChatGPT est légal en France ?

Oui, l'utilisation de ChatGPT est parfaitement légale en France, tant pour les particuliers que pour les entreprises. Cependant, son éditeur OpenAI est soumis à une surveillance étroite de la CNIL concernant la collecte des données personnelles servant à entraîner son modèle. Sous l'égide de l'AI Act, ChatGPT est considéré comme une IA à usage général et doit respecter de nouvelles obligations de transparence, notamment prouver que les droits d'auteur ont été respectés lors de son entraînement.

Le rôle de la CNIL et le respect du RGPD

L'intelligence artificielle se nourrit exclusivement de données. En France, la loi Informatique et Libertés ainsi que le RGPD (Règlement Général sur la Protection des Données) s'appliquent donc de facto à la conception, l'entraînement et l'utilisation des IA.

Les grands principes de protection des données

La CNIL (Commission Nationale de l'Informatique et des Libertés) est le gendarme français chargé de veiller à ce que les entreprises respectent plusieurs principes inaliénables lors du développement ou du déploiement d'une IA :

  • La minimisation des données : l'IA ne doit aspirer et traiter que les données strictement nécessaires à son fonctionnement. Finie l'époque où les algorithmes aspiraient tout le web sans distinction.
  • La transparence et le consentement : les personnes dont les données ont servi à entraîner le modèle doivent en être informées et pouvoir exercer leur droit de retrait ou d'effacement.
  • La sécurité dès la conception (Privacy by design) : les concepteurs doivent garantir par des moyens techniques avancés que les bases de données d'entraînement sont protégées contre les fuites et les cyberattaques.

L'accompagnement des entreprises françaises

Pour accompagner l'innovation sans freiner les entreprises françaises face à la concurrence internationale, la CNIL a créé début 2023 un "Service de l'intelligence artificielle". Son but est d'accompagner les professionnels dans leur mise en conformité plutôt que de simplement les sanctionner, en publiant notamment des fiches pratiques et des recommandations pour les développeurs.

Quelles sont les limites légales de l'intelligence artificielle ?

Les limites légales de l'IA en France interdisent toute utilisation portant atteinte aux droits fondamentaux humains. Il est strictement illégal d'utiliser l'IA pour manipuler le comportement d'une personne, exploiter ses vulnérabilités, ou pratiquer la notation sociale (social scoring). De plus, les systèmes d'IA utilisés dans le recrutement ou la justice ne peuvent en aucun cas prendre des décisions entièrement automatisées sans l'intervention et le contrôle final d'un être humain.

Intelligence artificielle et droits d'auteur en France

L'autre volet légal majeur, et sans doute le plus polémique en France, concerne la propriété intellectuelle. De nombreuses IA génératives (Midjourney, ChatGPT, Sora) ont été entraînées sur des millions de textes, images et vidéos parfois protégés par le droit d'auteur.

Le principe du Text and Data Mining et de l'Opt-out

En France, la loi autorise la fouille de textes et de données (Text and Data Mining) pour entraîner des intelligences artificielles, à la condition stricte que les auteurs ou ayants droit ne s'y soient pas expressément opposés. C'est ce qu'on appelle le système de l'opt-out. Si un artiste a déclaré que ses œuvres ne devaient pas être aspirées par des robots, les entreprises d'IA ont l'obligation légale de les retirer de leurs bases d'entraînement.

De plus, l'AI Act impose désormais aux fournisseurs de modèles d'IA de publier des résumés suffisamment détaillés des contenus protégés par le droit d'auteur qui ont été utilisés pour concevoir leurs algorithmes, facilitant ainsi les recours juridiques des créateurs.

À qui appartient une image générée par IA en France ? 

Selon le droit français de la propriété intellectuelle, une œuvre générée exclusivement par une IA n'appartient à personne et ne bénéficie pas de la protection du droit d'auteur. Pour qu'une création soit protégée, la loi exige "l'empreinte de la personnalité de l'auteur", ce qui implique une intervention humaine prépondérante. Taper un simple prompt (commande texte) n'est pas considéré comme un acte créatif suffisant pour revendiquer la paternité légale d'une image.

Calendrier de mise en application de l'AI Act

La législation européenne n'entre pas en vigueur du jour au lendemain. Afin de laisser le temps aux entreprises françaises et européennes de s'adapter technologiquement et juridiquement, l'application de l'AI Act s'étale sur plusieurs années :

  • Février 2025 : Entrée en vigueur de l'interdiction pure et simple des IA jugées à "risque inacceptable".
  • Août 2025 : Application des règles pour les modèles d'IA à usage général (comme les LLM qui propulsent les chatbots génératifs).
  • Août 2026 : Entrée en vigueur des obligations strictes pour la majorité des systèmes d'IA à "risque élevé".

Août 2027 : Application des règles aux systèmes à haut risque nécessitant déjà des certifications dans d'autres réglementations (dispositifs médicaux, véhicules, etc..

Le saviez-vous ?

Lors des négociations houleuses de l'AI Act, la France (soutenue par l'Allemagne et l'Italie) a mené un fort lobbying pour alléger la réglementation sur les "modèles de fondation". L'objectif politique assumé était de protéger la compétitivité des pépites nationales de l'IA, telles que l'entreprise française Mistral AI, face à l'hégémonie des géants américains.

Ce qu'il faut retenir de la loi sur l'IA en France

Pour bien comprendre les enjeux actuels, voici un tableau récapitulatif synthétisant l'ensemble de la législation entourant l'IA sur le territoire français :

Cadre réglementaire Ce que dit la loi (en bref) Impact pour les utilisateurs et entreprises
L'AI Act (Loi Européenne) Régulation proportionnée basée sur 4 niveaux de risques (de minime à inacceptable). Obligation de transparence (pour les chatbots/deepfakes) et lourdes certifications pour les IA à haut risque (santé, banque, RH).
Le RGPD et la CNIL Protection stricte des données personnelles des citoyens européens face aux algorithmes. Obligation de sécuriser les données d'entraînement, droit à l'effacement et respect absolu de la vie privée.
Propriété Intellectuelle L'entraînement des IA est toléré sauf opposition explicite du créateur original (opt-out). Les concepteurs d'IA doivent prouver leur transparence concernant les œuvres ingérées ; les créations 100% IA n'ont pas de droit d'auteur.
Calendrier d'application Déploiement progressif des règles votées par l'Union européenne. Les acteurs du marché ont entre début 2025 et mi-2027 pour auditer leurs systèmes et se mettre en conformité sous peine d'amendes record.