La loi européenne sur l’IA et la création de contenu numérique : ce qu’il faut savoir

La loi européenne sur l’IA et la création de contenu numérique : ce qu’il faut savoir

Alberto Maestri Publié le 8/2/2024

Cet article a été pensé et rédigé en collaboration avec Federica Morichetti, copywriter et content manager chez GreatPixel.

Contenu trompeur, atteinte à la vie privée et manipulation des utilisateurs : ce ne sont là que quelques-uns des risques posés par l’essor vertigineux de l’intelligence artificielle (IA).

C’est pourquoi l’Union européenne (UE) vient d’adopter une loi sur l’IA destinée à fixer des limites claires et à traiter les dangers liés à l’utilisation et au développement de cette technologie.

Proposée à l’origine par la Commission européenne en 2021, la loi a finalement été approuvée par le Parlement européen le 13 mars 2024 et sera mise en œuvre progressivement sur trois ans. L’UE a également créé un Office de l’IA : composé de 140 experts de l’industrie, cet organisme est chargé de superviser la mise en œuvre des réglementations européennes en matière d’IA.

Pourquoi la loi sur l’IA est-elle importante ?

Dès le départ, la loi sur l’IA a été largement reconnue comme la tentative la plus complète de réglementation mondiale des systèmes d’IA.

Lors du débat qui a précédé l’approbation de la loi par le Parlement européen, Brando Benifei, député européen et coauteur de la loi, s’est montré enthousiaste :

“Nous avons enfin réussi à adopter la première législation contraignante au monde sur l’intelligence artificielle”.

L’Union européenne a désormais donné l’exemple à suivre, mais cela s’accompagne d’un inconvénient potentiel pour le premier arrivé.

Réglementer un domaine aussi vaste, en évolution rapide et aux multiples facettes que l’IA est un défi de taille. Les législateurs doivent travailler dans le domaine du probable, et non du certain, et essayer de suivre l’évolution d’une technologie qui change plus vite que les gens ne peuvent la comprendre.

En effet, peu de temps après l’adoption de la législation, l’écosystème de l’IA a connu des changements importants. En mai 2024, OpenAI a suscité beaucoup d’enthousiasme avec la sortie de son dernier modèle, GPT-4o. Ce faisant, l’organisation dirigée par Sam Altman a consolidé sa position de pionnier dans ce domaine. Le nouveau modèle peut traiter les entrées textuelles et audiovisuelles des utilisateurs par l’intermédiaire d’un seul réseau neuronal, ce qui minimise la perte de données et accélère les vitesses de réponse à une moyenne de 320 millisecondes, ce qui est comparable au temps de réponse d’un être humain lors d’une conversation.

Qui est concerné par la loi sur l’IA ?

Un domaine aussi complexe que l’IA nécessite une législation tout aussi complexe – et il peut être difficile de s’y retrouver. Nous examinons ci-dessous les points clés de la nouvelle législation européenne sur l’IA, qui s’inscrit dans le cadre de la stratégie numérique plus large de l’UE.

Mais avant de commencer, nous devons d’abord clarifier ce que nous appelons ” Intelligence Artificielle “. Dans le règlement de l’UE, l’article 3 définit un système d’IA comme suit :

“Un système basé sur une machine, conçu pour fonctionner avec différents niveaux d’autonomie et pouvant faire preuve d’adaptabilité après son déploiement, ayant des objectifs explicites ou implicites, qui déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels”.

Le règlement couvre donc tous les programmes d’IA générative tels que Google Gemini ou ChatGPT. Et même si les propriétaires de ces systèmes sont basés aux États-Unis, la loi s’applique à tous les “prestataires” (publics et privés) qui offrent des services d’IA sur le marché européen. En outre, elle s’applique également aux “déployeurs“, c’est-à-dire à toute personne qui utilise un système d’IA à des fins professionnelles et dont les résultats sont accessibles dans l’UE. Cela signifie que les entreprises qui utilisent du contenu créé à l’aide de l’IA générative seront également concernées par la loi.

La loi exempte l’IA utilisée à des fins militaires et de sécurité nationale, et pour la recherche scientifique, ainsi que l’IA libre (qui est néanmoins réglementée dans les cas d’utilisation à haut risque).

Les points clés de la loi sur l’IA

Les restrictions imposées par la loi dépendent du niveau de risque posé par les systèmes d’IA, qui sont classés en quatre macro-catégories :

  • Systèmes d’IA à risque inacceptable. Il s’agit de toute technologie qui n’adhère pas aux valeurs fondamentales de l’UE, telles que la dignité humaine, la démocratie et l’État de droit. Tout ce qui entre dans cette catégorie est interdit ou soumis à des restrictions strictes.
  • Systèmes d’IA à haut risque. Les technologies susceptibles d’avoir un impact négatif “significatif” sur les droits fondamentaux des citoyens européens sont considérées comme présentant un risque élevé. Il s’agit de tout système d’IA utilisé pour gérer et collecter des données sensibles dans des domaines tels que la santé, l’éducation, l’application de la loi ou les ressources humaines, ainsi que les systèmes d’IA générative dont la puissance de calcul est supérieure à 10^25 FLOPS. Les technologies de cette catégorie sont soumises à des réglementations strictes concernant les méthodes de collecte des données, les informations fournies aux utilisateurs, la supervision humaine, l’évaluation des risques, etc. Elles doivent également être certifiées et approuvées par des organismes indépendants.
  • Systèmes d’IA à risque limité. La grande majorité des systèmes d’IA générative utilisés à des fins personnelles ou pour la création de contenu audiovisuel (tels que les chatbots ou les générateurs d’images) sont couverts par cette catégorie. Les personnes qui déploient de tels systèmes ont un devoir de transparence envers les utilisateurs. Cela signifie, par exemple, que les personnes doivent être informées lorsqu’elles interagissent avec un chatbot doté d’une IA.
  • Systèmes d’IA à risque minime. Il s’agit par exemple de filtres photographiques ou de technologies utilisées dans les jeux vidéo. Il n’y a pas d’autres restrictions que celles prévues par la législation européenne existante en matière de protection de la vie privée, de protection des consommateurs et de droits d’auteur.

N’oubliez pas que ces catégories sont susceptibles de changer dans les années à venir, au fur et à mesure que la technologie progresse.

Contenu généré par l’IA : c’est compliqué

Bien qu’elle constitue incontestablement un pas dans la bonne direction, la nouvelle loi européenne sur l’IA reste vague sur une question particulièrement épineuse : les droits de propriété intellectuelle et les contenus générés par l’IA.

Des questions essentielles n’ont pas encore trouvé de réponse. La première concerne la manière dont les technologies sont “formées”. Avant qu’un système d’IA générative puisse produire du texte, des images ou du son, il doit d’abord être alimenté par de grandes quantités de contenu créé par l’homme. Il s’agit de traiter du matériel protégé par des droits d’auteur, une pratique condamnée depuis longtemps par les détenteurs de droits, qui accusent les développeurs de s’approprier leur contenu sans discernement.

À cet égard, la loi sur l’IA fixe des limites dans le considérant 105, qui stipule que :

“Toute utilisation d’un contenu protégé par le droit d’auteur requiert l’autorisation du titulaire des droits concerné, à moins que des exceptions et des limitations au droit d’auteur ne s’appliquent.”

Les auteurs ont donc le droit de refuser aux systèmes d’IA l’autorisation d’utiliser leur travail. Mais qu’en est-il de la production de ces systèmes ? Qui est réellement propriétaire du contenu généré par l’IA ?

Malheureusement, cette question n’est toujours pas claire et il n’existe pas non plus de position internationalement reconnue. Par conséquent, deux approches divergentes ont été adoptées jusqu’à présent :

  • Limitation des droits de propriété intellectuelle aux œuvres créées par l’homme. C’est la politique adoptée par les Etats-Unis et l’Office européen des brevets (OEB). Un arrêt de la Chambre de recours juridique de l’OEB de décembre 2021 a établi que, pour être brevetée, une œuvre doit avoir été créée par une “personne ayant la capacité juridique”.
  • Attribution de l’originalité de l’œuvre à l’utilisateur ou au développeur du système d’IA. C’est la position adoptée par le Royaume-Uni, l’Inde, l’Irlande et la Nouvelle-Zélande.

Pour contourner le problème, de nombreuses entreprises préfèrent modifier considérablement le contenu généré par l’IA, en l’utilisant effectivement à des fins de rédaction uniquement. En théorie, cela devrait leur permettre de démontrer l’apport créatif humain qui rend leur travail privé et, par conséquent, protégeable, mais des doutes subsistent.

Conclusions et développements futurs

La loi sur l’IA annonce un changement juridique et culturel majeur. Son existence même est un signe du rôle croissant que joue l’IA dans la vie quotidienne des gens. La réglementation de l’IA ne peut plus être repoussée et promet d’être une question clé dans le débat mondial autour de cette technologie.

La plus grande faiblesse du règlement de l’UE sur l’IA est qu’il s’agit d’une solution régionale à un problème mondial. La nature numérique de l’IA permet à n’importe qui, n’importe où dans le monde, de l’utiliser, quel que soit l’endroit où le développeur est basé. La réglementation de l’IA est donc un défi mondial. En outre, les conflits d’intérêts entre les pays peuvent conduire à des divergences réglementaires importantes. C’est pourquoi les experts plaident depuis longtemps en faveur d’une approche universelle impliquant le plus grand nombre possible de parties prenantes.

Cela étant dit, la loi européenne sur l’IA constitue une étape importante. Elle montre que les institutions européennes sont conscientes que l’essor de l’IA ne peut être stoppé, mais qu’il peut apporter d’énormes avantages s’il est correctement exploité. Pour reprendre les termes de l’eurodéputé Dragoş Tudorache, corapporteur du Parlement européen pour la législation : “L’avenir est alimenté par l’IA et nous devons continuer à le façonner”.

Comment la loi européenne sur l’IA va-t-elle réglementer l’utilisation de l’intelligence artificielle dans la communication quotidienne ?