IA générative: La gestion des risques des applications IA

Dans un monde caractérisé par une insécurité croissante et des progrès technologiques rapides, une gestion efficace des risques devient de plus en plus importante pour les entreprises. Cet article vise à mettre en lumière les opportunités et les risques liés à l'IA générative, ainsi que le potentiel que la nouvelle technologie et les applications de l'IA ouvrent en matière de gestion des risques.

14/05/2025 De: Simon Schneiter
IA-générative

Fin 2023, lorsque le journal NZZ a interrogé l'ancien directeur d'Open AI, Zack Kass, sur le potentiel de l’IA générative, ce dernier a évoqué des sources d'énergie infinies et une superintelligence qui permettraient de réduire les coûts des biens à zéro et de guérir toutes les maladies. Nous sommes encore loin de cette situation, mais l'IA a déjà laissé une impression durable.

De nouvelles opportunités grâce aux applications de l'IA générative

Depuis quelques années déjà, nous constatons que l'intelligence artificielle est de plus en plus utilisée dans la vie quotidienne et dans le monde du travail. L'IA générative aide à diagnostiquer les maladies, déjoue la fraude financière, optimise la gestion des stocks et affiche sur les écrans la publicité la plus adaptée à chaque individu. L'IA générative permet de traduire des textes en temps réel, sans avoir à attendre plusieurs jours, et de créer rapidement des contenus adaptés sous forme de texte, de son et d'image.

Les applications de l'IA générative sont variées et le seront encore plus à l'avenir. Leur utilisation s'étend de la recherche et du développement à la production, en passant par le marketing et les relations publiques. Grâce à la combinaison de la robotique et de l'IA, qui est déjà une réalité aujourd'hui, de plus en plus de domaines d'application dans le secteur du travail physique vont s'ouvrir. Les entreprises qui saisissent rapidement ces opportunités peuvent se créer un avantage concurrentiel, à condition qu'elles gèrent également les risques en conséquence.

De nouveaux dangers

Alors qu'il y a encore peu de temps, l'intelligence artificielle était surtout intégrée dans des produits fermés ou utilisée par des groupes d'utilisateurs plutôt restreints, nous sommes aujourd'hui confrontés à un phénomène nouveau. Les internautes du monde entier ont accès à des outils souvent gratuits qui peuvent analyser et générer du texte, des images et du son à l'aide de l'intelligence artificielle. Les obstacles à l'entrée sont minimes et de nombreux utilisateurs ne se rendent même pas compte qu'ils divulguent des données à une entreprise tierce. Dans le contexte de l'entreprise, cela comporte cependant des risques.

À l'heure des lois sur la protection des données, de la loi sur la sécurité de l'information (LSI) et de la directive sur la sécurité des réseaux et des systèmes d'information" (Network and Information Security Directive 2) NIS2, il est facile d'enfreindre la loi si l'on confie des données à des tiers sans respecter les conditions-cadres et les contrôles appropriés. En outre, l'UE a récemment promulgué l'AI Act, qui définit des règles explicites pour le développement et l'utilisation de l'intelligence artificielle.

En outre, des préoccupations existent en ce qui concerne la protection des secrets commerciaux. Si des données sont utilisées pour l'entraînement d'une IA générative, elles pourraient également être transmises involontairement à des tiers. Même si les données d'entrée ne sont pas utilisées pour l'entraînement, elles peuvent être utilisées à mauvais escient par le fournisseur lui-même ou être divulguées au public ou à la concurrence à la suite d'une fuite de données. On sait peu de choses sur les mesures de sécurité prises par la plupart des fournisseurs, et des gros titres négatifs ont déjà fait la une des journaux. Le risque de fuite de données existe également lorsque les applications d'IA correspondantes sont exploitées localement. Une fois que des informations confidentielles ont été saisies, elles peuvent également être divulguées à des employés qui ne disposent pas des autorisations nécessaires.

Les « hallucinations » constituent un autre danger. L'IA générative peut écrire des textes erronés qui semblent tout à fait corrects. Si les entreprises utilisent des contenus de ce type sans les vérifier, elles risquent de nuire à leur réputation, voire pire.

Des directives clairement formulées, des formations et des campagnes de sensibilisation peuvent aider, tout comme les approches technologiques. Dans un premier temps, les entreprises doivent toutefois déterminer si et comment elles souhaitent utiliser ou autoriser l'IA générative dans leur travail. Cette discussion doit avoir lieu. Idéalement, elle doit être menée de manière informée, c'est-à-dire sur la base d'une enquête sur l'utilisation actuelle et les souhaits d'utilisation, ainsi qu'en tenant compte des opportunités et des risques.

Utilisation de l'IA générative dans les PME

  • Obtenir une vue d'ensemble: déterminer où l'IA générative est déjà utilisée et quels sont les souhaits à cet égard.
  • Définir la stratégie/le concept : déterminer comment l'entreprise doit gérer ChatGPT & Co. et comment cela peut être mis en œuvre. Discuter et évaluer les opportunités et les risques à l'aide de cas d'utilisation concrets.
  • Mise en œuvre: l'utilisation de l'IA générative doit être orientée dans la direction souhaitée au moyen de spécifications compréhensibles, de formations et de sensibilisation, d'ajustements de processus, de solutions techniques et d'un éventuel suivi.

Conseil: même avec des approches plutôt restrictives, il peut être utile d'autoriser des expériences dans des limites définies.

Et enfin, les criminels profitent eux aussi des avantages de l'intelligence artificielle. Les e-mails de phishing optimisés, les vidéos deepfake et les appels choquants par clonage vocal ne sont que quelques-uns des exemples les plus connus sur lesquels les employés devraient être informés.

Nouvelles possibilités de gestion des risques

L'intelligence artificielle permet également d'optimiser la gestion des risques en elle-même. Il existe un certain potentiel dans les domaines de l'identification, de l'analyse et du traitement des risques.

L'une des capacités les plus remarquables de l'IA est sa capacité à analyser de grandes quantités de données en temps réel et à reconnaître des modèles qui indiquent des risques potentiels. En utilisant des algorithmes d'apprentissage automatique, les entreprises peuvent détecter à un stade précoce les anomalies dans les transactions financières, les chaînes d'approvisionnement ou les systèmes informatiques. Cela permet de prendre des mesures préventives avant qu'un risque ne dégénère en un problème grave. Ces modèles sont généralement basés sur la comparaison d'une grande quantité de données historiques avec des données actuelles et sont regroupés sous le terme «analyse prédictive».

Les capacités de l'IA permettent non seulement d'identifier les risques, mais aussi de les évaluer. Par exemple, les systèmes de sécurité informatique modernes utilisent des algorithmes pour analyser et évaluer les activités suspectes. Des fonctions similaires sont déjà utilisées dans d'autres domaines.

Cependant, l'utilisation de l'intelligence artificielle dans la gestion des risques peut aller encore plus loin et déclencher des actions automatisées pour traiter les risques. Les transactions financières peuvent être bloquées à titre préventif, les ordinateurs isolés du réseau, les comptes d'utilisateurs désactivés et une pédale de frein actionnée.

L'IA générative offre des possibilités supplémentaires d'accroître l'efficacité. Les chatbots peuvent être utilisés dans le contexte de l'identification et de l'analyse des risques. Les algorithmes peuvent analyser des textes, des fichiers audio et des données visuelles et ainsi contribuer à l'identification et à l'analyse. L'analyse automatisée des reportages médiatiques et la surveillance des réseaux sociaux sont déjà utilisées aujourd'hui pour identifier les risques. En outre, le domaine du reporting peut être largement automatisé, ce qui permet de créer facilement des rapports de risques adaptés au niveau et au destinataire.

Cependant, il ne faut pas oublier les défis que posent toutes ces possibilités. Par exemple, le manque de transparence des calculs complexes peut entraîner une mauvaise compréhension des résultats et des préoccupations concernant la responsabilité. La complexité et les efforts nécessaires à l'intégration de modèles à valeur ajoutée ne doivent pas non plus être sous-estimés, en particulier lorsqu'il s'agit d'utiliser ses propres sources de données non nettoyées. Le principe «Bullshit in, Bullshit out» s'applique tout particulièrement à l'IA. Il est donc essentiel de garantir une qualité élevée des données. En outre, des boucles de rétroaction devraient être mises en place afin d'améliorer constamment les modèles.

Conclusion

Les applications de l'intelligence artificielle gagnent en importance. Les opportunités et les risques sont multiples. Les entreprises doivent analyser les utilisations actuelles, définir leur approche du sujet et mettre en œuvre les mesures appropriées. Il peut être utile d'optimiser les processus de gestion des risques à l'aide de l'IA.

Devenir membre Newsletter