Intelligence artificielle générative: Enjeux clés en RH

Aides de travail appropriées
L’intelligence artificielle générative : un levier d’opportunités pour les RH ?
L’intelligence artificielle générative révolutionne le monde du travail à une vitesse fulgurante. Presque quotidiennement, les médias annoncent de nouveaux outils toujours plus performants ou des mises à jour significatives de solutions existantes. Cette dynamique crée souvent une impression d’urgence : ne pas adopter l’IA reviendrait à prendre du retard. Pour les entreprises, l’IA offre des perspectives prometteuses, notamment dans l’optimisation des processus RH, l’accélération des prises de décision ou l’automatisation de tâches jusqu’alors réalisées manuellement.
L’expérience montre que dans le domaine des RH, l’IA est principalement utilisée pour accroître l’efficacité des équipes. Les cas d’usage sont quasi illimités : sélection automatisée de candidatures, évaluation des performances, estimation de la probabilité de démission d’un collaborateur donné, etc. Toutefois, malgré son potentiel, l’IA soulève des questions complexes sur le plan juridique et éthique.
S’assurer d’un cadre juridique solide
L’utilisation de l’intelligence artificielle générative dans le domaine des ressources humaines comporte, en principe, les mêmes écueils juridiques que toute autre utilisation de l’IA dans l’entreprise. Actuellement, ce sont les exigences du droit de la protection des données qui sont au premier plan, car l’utilisation de l’IA implique en règle générale (également) un traitement de données personnelles au sens de la Loi fédérale sur la protection des données (LPD). Parmi les obligations figurent notamment celle d’informer les personnes concernées par le traitement de données, au minimum, sur l’identité du responsable du traitement, les finalités poursuivies et les tiers impliqués dans ce traitement. Cette obligation est remplie au moyen d’une déclaration de protection des données. Par exemple, si un outil d’IA est utilisé pour la planification des affectations du personnel, les collaborateurs doivent être informés de manière transparente. En règle générale, la déclaration de protection des données déjà existante pour le personnel est alors complétée en conséquence.
Comprendre et vérifier les contrats
Les PME ne disposent généralement pas des ressources nécessaires pour développer leur propre intelligence artificielle générative. Le recours à des offres existantes proposées par des prestataires spécialisés constitue donc la norme. Dans de nombreuses configurations, cela a des conséquences en matière de protection des données, car ces prestataires sont souvent qualifiés de sous-traitants, qui traitent les données personnelles pour le compte de l’entreprise (par exemple lors de l’hébergement effectué par le prestataire). Dès que tel est le cas, un contrat de sous-traitance doit être conclu, en plus du contrat commercial, dont l’examen est essentiel avant toute utilisation de l’outil d’IA (notamment en ce qui concerne les responsabilités et la responsabilité civile). Ce contrat de sous-traitance définit les bases encadrant le traitement des données personnelles, auxquelles le sous-traitant est tenu de se conformer.
Connaître les risques et les maîtriser
Par ailleurs, les entreprises qui utilisent l’IA doivent, avant toute mise en œuvre, réfléchir de manière structurée aux risques qui y sont liés. Cette démarche est impérative du point de vue de la protection des données dès lors qu’il existe un risque élevé pour les droits et libertés des personnes concernées (par exemple les collaborateurs). En règle générale, une analyse d’impact relative à la protection des données doit être réalisée lorsqu’il s’agit de technologies nouvelles, telles que l’IA, et qu’un traitement par un sous-traitant est également en cause. Autrement dit, l’utilisation d’outils d’IA achetés nécessite régulièrement la réalisation d’une analyse d’impact relative à la protection des données. Celle-ci permet d’identifier et de documenter les risques de manière systématique. En pratique, il s’avère de toute façon indispensable d’effectuer une analyse des risques avant d’introduire l’IA dans l’entreprise. L’analyse peut être complétée par des risques spécifiques à l’intelligence artificielle générative, comme le risque de discrimination des utilisateurs, le respect d’autres bases légales (par exemple en matière de droit du travail ou de droit d’auteur), la violation de principes éthiques ou encore la fiabilité des résultats générés par l’IA. Cela permet à l’entreprise de garantir non seulement le respect des prescriptions en matière de protection des données, mais aussi l’identification et la réduction des risques.
Recommandations de produits
Enjeux liés au droit du travail
Dans le domaine des ressources humaines, d’autres défis viennent s’ajouter, découlant des dispositions du droit du travail. Il s’agit par exemple de l’interdiction de surveiller les collaborateurs (comme dans le cas d’une surveillance comportementale basée sur l’IA), du risque de rejets discriminatoires lors du processus de sélection de personnel (par exemple via des processus de recrutement automatisés par l’IA), ou encore de violations des dispositions relatives à la protection de la santé (telles que des mesures de contrôle fondées sur l’IA).
L’intelligence artificielle générative offre un très grand nombre d’opportunités dans le domaine des ressources humaines. Pour en tirer un bénéfice réel et juridiquement sécurisé, il est toutefois indispensable de procéder, avant toute mise en œuvre, à une analyse approfondie des risques, afin de pouvoir appliquer les exigences légales pertinentes au cas par cas et de maintenir les risques sous contrôle. L’expérience montre qu’il est utile, dans ce cadre, de regrouper les différentes compétences présentes au sein de l’entreprise – par exemple celles des collaborateurs des départements IT, RH ou juridique – ainsi que, le cas échéant, de recourir à des experts externes.
Définir et tester les cas d’usage
Dans la pratique, il apparaît souvent qu’une pression implicite pousse à introduire certains outils d’IA, simplement parce qu’ils sont actuellement « à la mode ». Cette pression est généralement alimentée par des parties prenantes internes souhaitant « sauter immédiatement dans le train en marche ». Comme déjà mentionné, l’analyse juridique requiert du temps. Elle entre donc en tension avec une mise en œuvre rapide, mais demeure essentielle.
Il est plus important pour l’entreprise de définir clairement les cas d’usage pour lesquels l’intelligence artificielle générative est appropriée et apporte une réelle valeur ajoutée, que de suivre précipitamment une tendance du moment sans bénéfice concret. Une fois un cas d’usage défini, l’outil d’IA doit être évalué, examiné et testé. En raison des évolutions technologiques rapides, il est tout à fait possible qu’un projet d’acquisition soit abandonné, soit à cause de risques juridiques, soit parce que l’outil ne donne pas les résultats escomptés durant la phase de test.
Établir des règles claires et assurer la formation
En tant qu’employeurs, les entreprises sont responsables du respect des lois applicables. Cela vaut également pour l’utilisation de l’IA. Pour satisfaire à cette obligation, les employeurs peuvent recourir à des directives internes. Toutefois, le droit de donner des instructions n’est pas illimité. Les directives doivent être raisonnables pour les collaborateurs et ne doivent pas être abusives. Tant qu’elles respectent ces limites, qu’elles sont dans l’intérêt de l’entreprise et qu’elles ne contreviennent pas à la loi, les collaborateurs sont tenus de les suivre.
L’utilisation de l’intelligence artificielle générative est encore nouvelle pour de nombreux collaborateurs. C’est pourquoi il est important d’établir des règles de base claires et compréhensibles à ce sujet, idéalement sous la forme d’une directive relative à l’IA, régulièrement intégrée dans les formations.
Contenu type d’une directive relative à l’IA
- Objectif et bases légales
- Champ d’application et objet
- Règles fondamentales relatives à l’utilisation de l’IA (par ex. : transparence, contrôle humain, utilisation équitable, légale et non discriminatoire, respect des principes éthiques, etc.)
- Quels outils peuvent être utilisés et lesquels sont interdits ?
- Quelles restrictions s’appliquent à l’utilisation des outils (par ex. : ne pas saisir de données personnelles, d’informations confidentielles ou de secrets d’affaires ; vérification des résultats, etc.)
- Responsabilités / personnes de contact
- Sanctions et dispositions finales
Directive spécifique pour le domaine RH
Dans le domaine des ressources humaines, il peut également s’avérer nécessaire d’édicter des directives spécifiques concernant l’utilisation de l’IA. Cela s’explique par le fait que les risques liés à l’utilisation de l’intelligence artificielle générative dans les RH – par exemple dans le cadre du recrutement, de l’évaluation des performances ou du calcul de la probabilité de résiliation – sont accrus. Il est donc pertinent, pour ces usages, de mettre en place des directives spécifiques accompagnées des formations correspondantes.