Weka Plus

Transparence: Obligations à respecter pour les systèmes d'IA

Dans de nombreux journaux et sur les réseaux sociaux, on peut actuellement lire des articles sur le règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d'intelligence artificielle (loi sur l'intelligence artificielle) et modifiant certains actes juridiques de l'Union (ci-après « AI Act ») et sur son impact considérable sur toutes les entreprises actives en Europe. La catégorisation des différents systèmes d'IA est régulièrement abordée, mais les obligations concrètes qui découlent d'une soumission ne sont souvent pas expliquées. L'une des obligations découlant de la AI Act est celle de l’obligation de transparence. Vous découvrirez ci-dessous ce que cela signifie pour votre entreprise et comment vous pouvez mettre en œuvre ces obligations de transparence.

14/05/2025 De: Cornelia Mattig
Transparence

La loi «AI Act» a un large champ d'application et couvre différentes catégories de risques des systèmes d'IA, mais aussi des modèles d'IA à usage général (appelés «IA à usage général»). Selon la catégorie, des exigences et des obligations plus étendues s'appliquent. Certains systèmes d'IA sont même interdits par la loi «AI Act». Indépendamment de la catégorisation des risques des systèmes d'IA, les fournisseurs et les utilisateurs de systèmes d'IA sont soumis à des obligations de transparence. Ces dispositions générales en matière de transparence sont complétées par des obligations de transparence plus étendues pour les systèmes d'IA à haut risque.

Obligations générales de transparence

Lorsqu'un système d'IA (par exemple un chatbot ou un assistant virtuel) interagit avec des personnes ou même reconnaît leurs émotions ou leurs caractéristiques par des moyens automatisés, le fournisseur doit informer les personnes concernées de l'utilisation du système d'IA de manière claire et compréhensible et en temps utile. Le système d'IA peut être conçu ou développé de manière à remplir lui-même cette obligation d'information. Dans la mesure où cela est approprié et pertinent, cette information doit également indiquer quelles fonctions et décisions sont assumées ou prises par l'IA. En outre, les personnes qui utilisent l'IA doivent être informées de leurs droits ainsi que des éventuelles possibilités de recours ou autres voies de droit. Cette obligation générale de transparence est indépendante de la catégorie de risque, car le risque d'imitation ou de tromperie existe quelle que soit la catégorie de risque. Bien entendu, la loi sur l'IA prévoit également des exceptions à cet égard, notamment en ce qui concerne les besoins dans le cadre des poursuites pénales.

L'obligation d'information consiste principalement à communiquer qu'il s'agit d'un système d'IA. En outre, les personnes physiques doivent être informées si le système d'IA peut reconnaître ou déduire des données biométriques, des sentiments ou des intentions de ces personnes ou les classer dans certaines catégories (par exemple, sexe, âge, couleur des cheveux, couleur des yeux, origine ethnique, caractéristiques et intérêts personnels).

Exceptionnellement, il est possible de déroger à l'obligation d'information s'il est évident, compte tenu des circonstances et du contexte d'utilisation, qu'il s'agit d'un système d'IA. Lors de cette évaluation, il convient de prendre en compte le groupe cible et ses besoins individuels (par exemple, l'âge ou le handicap).

L'obligation générale de transparence s'applique également aux systèmes d'IA qui peuvent générer ou manipuler des contenus visuels, sonores ou vidéo de manière à ce qu'ils ressemblent de manière perceptible à des personnes, des objets, des lieux ou d'autres installations ou événements réels et qu'ils apparaissent à tort à une personne comme authentiques ou vrais («deepfake»).

Dans ce cas également, il convient de signaler qu'il s'agit d'un deepfake et que le contenu a donc une origine artificielle. En outre, un marquage approprié doit être apposé. Le marquage peut par exemple se faire par un filigrane, mais il doit également évoluer avec les progrès techniques. L'objectif de cette obligation d'information et de marquage est d'éviter les fausses informations, les manipulations, la fraude ou la tromperie des consommateurs afin de préserver à long terme l'intégrité et la confiance dans l'écosystème de l'information et de ne pas mettre en danger les processus démocratiques, le discours de la société civile et les processus électoraux par la désinformation. Les deepfakes ayant pour but de détecter, de prévenir, d'enquêter et de poursuivre des infractions pénales ou lorsque ceux-ci sont nécessaires ou créés dans le cadre de la liberté d'expression et de la liberté des arts ou des sciences sont toutefois exclus de cette obligation de transparence. Il n'est pas prévu de restreindre le contenu des œuvres manifestement créatives, satiriques, artistiques, fictives ou analogiques. Dans ces cas, des mesures de protection appropriées doivent néanmoins être prises pour préserver les droits et libertés des tiers. Une mention appropriée de l'existence de tels contenus générés artificiellement ou manipulés, qui ne limite pas la présentation ou la jouissance de l'œuvre, est probablement appropriée.

Les informations doivent être fournies au plus tard au moment de la première interaction ou du premier contact avec les contenus mis à disposition. Ces informations et ces marquages doivent en outre être adaptés à l'âge et présentés dans un format accessible aux personnes handicapées.

Le terme de système d'IA à haut risque est relativement large et peut être étendu ou restreint par l'adaptation des annexes ou d'autres dispositions d'harmonisation de l'UE. Un système d'IA à haut risque existe notamment lorsque le système d'IA sert de composant de sécurité d'un produit qui relève de certaines réglementations d'harmonisation de l'UE ou est lui-même un tel produit. En outre, conformément à la loi sur l'IA, les systèmes d'IA dans les domaines suivants, entre autres, sont généralement considérés comme des systèmes d'IA à haut risque:

  • Identification biométrique et catégorisation des personnes physiques,
  • Gestion et exploitation d'infrastructures critiques,
  • Éducation, formation professionnelle, emploi, gestion des ressources humaines et accès à l'indépendance,
  • Accessibilité et utilisation des services et prestations privés et publics de base,
  • Poursuites pénales,
  • Migration, asile et contrôle aux frontières,
  • Administration de la justice et processus démocratiques.

Il convient toutefois de noter qu'un système d'IA dans les domaines susmentionnés n'est considéré comme un système d'IA à haut risque que s'il « présente un risque important d'atteinte à la santé, à la sécurité ou aux droits fondamentaux des personnes physiques ». Il appartient au fournisseur d'évaluer et de documenter dans quelle mesure cela s'applique à son système.

Devenir membre et lire la suite:

  • Accès illimité à plus de 600 aides de travail
  • Tous les articles payants en accès illimité sur weka.ch
  • Accès à toutes les vidéos
  • Actualisation quotidienne
  • Nouveaux articles et aides de travail chaque semaine
  • Offres spéciales exclusives
  • Services d’actualité et de mises à jour
  • Bons séminaires
et bien plus encore! A partir de CHF 16.50 par mois S'abonner maintenant Êtes-vous déjà membre? S'inscrire ici
Devenir membre Newsletter