Régulation de l’intelligence artificielle (IA) : enjeux et solutions

La fièvre de IA, surtout de l’IA générative, a gagné le monde en 2023. Ses symptômes sont nombreux : investissements[1] massifs, concurrence effrénée, contentieux liés au droit d’auteur, débats sur l’éthique et tensions autour des questions de régulation. Ce dernier point n’est pas nouveau et certains États y travaillent depuis plusieurs années (la stratégie de l’Union européenne (UE) date d’avril 2018 et la première proposition de règlement a été publiée en avril 2021). Cependant, il n’existe jusqu’à présent pas de régulation globale du développement et de l’utilisation de l’IA.

  • Enjeux et intérêts d’une réglementation de l’IA

Légiférer le premier peut être considéré comme de nature à conférer une avance et un pouvoir d’influence considérables sur le développement de l’IA à l’échelle mondiale.

Pour les États-Unis, l’enjeu est celui du maintien de leur leadership dans le domaine de l’IA en pesant sur le marché et en offrant aux entreprises américaines d’IA le cadre propice à leur développement. Il s’agit aussi d’influencer d’autres États susceptibles de s’inspirer du cadre américain pour définir le leur. L’adoption d’une régulation par les USA aurait aussi pour effet de « contraindre » les États souhaitant utiliser les outils d’IA américains et ceux dans la course technologique à adopter des régulations proches.

En l’absence de leadership dans le domaine de l’IA et dans un contexte favorable à la protection du consommateur et au respect des droits des citoyens, les objectifs de l’UE diffèrent. Elle espère bien sûr développer ses champions d’IA malgré l’avance des acteurs américains.

Les technologies d’IA évoluant très rapidement, l’objectif consiste à créer un cadre suffisamment tôt pour peser immédiatement sur une future régulation internationale, grâce à des textes capables, d’une part, de réponde aux enjeux actuels et, d’autre part, de résister aux évolutions, avec l’objectif d’établir un équilibre entre innovation la sécurité.

  • Quels outils juridiques pour réglementer l’IA ?

États-Unis

Washington veut rester un pôle d’innovation en matière de haute technologie et d’IA générative. La stratégie américaine consiste donc à favoriser au maximum le développement de l’IA afin de conserver son leadership.

Le format du décret présidentiel a été choisi par souci d’efficacité et de souplesse ; le « Safe, Secure, and Trustworthy Artificial Intelligence » du 31 octobre 2023 constitue le premier texte juridique déployé pour encadrer l’IA[2]. Ses objectifs sont nombreux :

  • Fixer de nouveaux standards de sécurité en ce qui concerne l’IA
  • La protection de la vie privée des Américains
  • L’avancement sur l’équité et les droits civiques
  • La défense des consommateurs, des patients et des étudiants
  • Le soutien aux travailleurs
  • La promotion de l’innovation et de la compétition
  • La promotion du leadership américain à l’étranger
  • Assurer une utilisation responsable et efficace de l’IA par le gouvernement

Ce texte reste au stade des objectifs et s’appuie sur deux textes antérieurs ; le décret 13960 du 3 décembre 2020 qui liste les utilisations de l’IA autorisés aux  agences fédérales et indique les positions qu’elles doivent prendre quant aux développements de l’IA, d’une part,  et le « Blueprint for an AI Bill of Rights », dont la finalité est de protéger les individus des dérives ou abus liés à l’utilisation de l’IA, d’autre part.

Ce décret de 2023 a aussi conduit à la création du White House AI Council, composé des directeurs de plusieurs agences fédérales, responsable de la coordination des agences fédérales pour l’application des politiques en matière d’IA.

On ajoutera qu’en mars 2023, le National Institute of Standards and Technology (NIST) a créé le Trustworthy and Responsible AI Resource Center, chargé d’accompagner les acteurs du domaine à respecter les réglementations en vigueur. Très récemment, la Maison Blanche a évoqué un recours au Congrès, notamment pour traiter les questions de droit d’auteur[3].

Union européenne

L’ambition européenne de réguler l’IA n’est pas nouvelle comme rappelé en introduction, à la recherche d’un cadre favorable au développement de l’IA, pour l’émergence de fournisseurs européens, et de son utilisation responsable pour assurer la sécurité juridique du consommateur européen.

L’objet n’est pas ici de détailler l’AI Act discuté depuis 2021[4] ; on rappellera simplement que le projet prévoit différents niveaux de risques des systèmes d’IA, prohibant certains modèles (identification biométrique, score social).

Ce texte a fait l’objet d’âpres négociations entre institutions et surtout entre États membres[5]. L’accord politique trouvé entre Parlement et Conseil en décembre 2023 a débouché sur le texte adopté ce 2 février 2024 par le COREPER (Comité des Représentants Permanents). On soulignera que la question du droit d’auteur, d’abord absente du texte, est devenue enjeu central avec le constat de l’utilisation massive de contenus protégés pour l’entraînement des systèmes d’IA. Ce texte doit encore être soumis (en avril 2024) au Parlement européen pour adoption finale. Le dossier ne sera pour autant pas clos puisqu’une vingtaine de textes devront être adoptés pour une pleine entrée en vigueur en 2026. Le fonctionnement et le financement de l’agence européenne de l’IA nouvellement créée devront notamment faire l’objet d’un accord des 27.

  • Le sommet mondial sur les risques de l’IA de Londres : première étape vers une législation internationale ?

Un sommet mondial sur les risques de l’IA a eu lieu à Londres pour la première fois en novembre 2023. 28 États y étaient présents (la Russie en était exclue). Il a donné lieu à une déclaration commune, dite « déclaration de Bletchley ». Signée depuis par 54 États, dont les États-Unis, la Chine, le Royaume-Uni et l’Union européenne, elle fixe des limites éthiques pour l’utilisation de l’IA et pose les bases d’une coopération internationale. Néanmoins, cette déclaration n’a pas de valeur législative et n’engage en rien les États signataires.

Deux nouveaux sommets sur les risques de l’IA sont programmés en 2024 en Corée du Sud et en France. Nul doute que les avancées effectuées de part et d’autre de l’Atlantique y seront très présentes, mais il y a encore loin avant un quelconque traité.


[1] – Selon les chiffres de l’OCDE, les investissements dans ce secteur s’élevaient en 2023 à 68 Mds $ pour les seuls États-Unis. Les autres pays grands investisseurs sont la Chine (15 Mds $), l’Europe (8 Mds $), l’Inde (3.8 Mds $), le Royaume-Uni (3.5 Mds $), etc.

[2] – Un texte a été adopté au printemps en Chine, mais il demeure lapidaire et ne constitue pas vraiment un acte de régulation.

[4] – Un tel texte est d’application directe et ne nécessite pas d’actes de transposition dans les droits nationaux comme c’est le cas pour les directives.

[5] – Ce point pourrait faire l’objet d’un Œil du gf2i à lui seul !

Groupement Français
de l’Industrie de l’Information

17, rue Castagnary 75015 Paris
Tél. +33 1 44 90 43 69