IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les directeurs juridiques devraient se concentrer sur quatre domaines lors de l'élaboration d'une politique en matière d'IA générative
Selon Gartner

Le , par Anthony

1PARTAGES

4  0 
Alors que les employés expérimentent l'IA générative (GenAI), les directeurs juridiques doivent émettre des directives qui s'avéreront précieuses pour l'entreprise et les employés, selon Gartner, Inc.

"Pour élaborer une politique efficace, les directeurs juridiques doivent tenir compte de la tolérance au risque, des cas d'utilisation et des restrictions, des droits de décision et des obligations de divulgation", a déclaré Laura Cohn, senior principal, recherche chez Gartner. "La mise en place de garde-fous et de politiques en matière de GenAI permettra aux entreprises de mieux se préparer à d'éventuelles exigences juridiques futures."


Sur la base des pratiques en matière de politiques d'IA instituées par les entreprises et les gouvernements des villes, les directeurs juridiques devraient orienter les organisations vers la prise en compte de quatre mesures lors de l'établissement d'une politique :

S'aligner sur la tolérance au risque

Pour commencer à déterminer la tolérance au risque de l'entreprise, les responsables juridiques devraient emprunter une pratique de la gestion du risque d'entreprise et orienter une discussion avec la direction générale sur les "résultats à éviter absolument". Discutez des applications potentielles des modèles d'IA générative au sein de l'entreprise. Une fois ces applications identifiées, examinez les résultats qui peuvent en découler, ceux qui sont "à éviter" et ceux qui impliquent un risque acceptable compte tenu des avantages potentiels de l'IA.

"Les conseils sur l'utilisation de l'IA générative nécessitent des composants de base pour minimiser les risques tout en offrant aux employés la possibilité d'expérimenter et d'utiliser les applications au fur et à mesure qu'elles évoluent", a déclaré Cohn.

Déterminer les cas d'utilisation et les restrictions

Les responsables juridiques devraient comprendre comment l'IA générative pourrait être utilisée dans l'ensemble de l'entreprise en collaborant avec d'autres responsables fonctionnels. Dressez une liste des cas d'utilisation et organisez-les en fonction du risque perçu - à la fois la probabilité et la gravité du risque.

Pour les situations à haut risque (par exemple, la production de contenu destiné à la consommation des clients), envisagez d'appliquer des contrôles plus complets, par exemple en exigeant l'approbation d'un responsable ou d'un comité d'IA. Dans les cas les plus risqués, les responsables juridiques peuvent envisager une interdiction pure et simple. Pour les cas d'utilisation à moindre risque (par exemple, trouver des idées pour une activité amusante pendant un congé du personnel, ou traduire du jargon ou des règlements rédigés dans une langue étrangère), ils peuvent envisager d'appliquer des mesures de protection de base telles que l'exigence d'une révision humaine.

"Les directeurs juridiques ne devraient pas être trop restrictifs lorsqu'ils élaborent des politiques", a déclaré Cohn. "Interdire purement et simplement l'utilisation de ces applications ou appliquer des contrôles stricts, tels que la restriction de l'accès aux sites web, peut avoir pour conséquence que les employés les utilisent simplement sur leurs appareils personnels. Les dirigeants peuvent envisager de définir des cas d'utilisation acceptables et à faible risque directement dans la politique, ainsi que des obligations et des restrictions pour les employés concernant certaines utilisations, afin de fournir plus de clarté et de réduire le risque d'abus."

Se mettre d'accord sur les droits de décision et l'appropriation des risques

Il est impératif que les directeurs juridiques et les dirigeants s'accordent sur les personnes habilitées à prendre des décisions sur les cas d'utilisation de l'IA générative. Les équipes juridiques devraient collaborer avec les parties prenantes fonctionnelles, commerciales et de la haute direction pour s'aligner sur la propriété du risque et les tâches d'examen.

"Documentez l'unité d'entreprise qui régit l'utilisation de l'IA afin que les employés sachent à qui s'adresser pour poser des questions", a déclaré M. Cohn. "Le directeur juridique doit être clair s'il y a des utilisations qui n'ont pas besoin d'approbation, préciser ce qu'elles sont directement dans la politique et fournir des exemples. Pour les cas d'utilisation nécessitant une approbation, il convient d'informer les employés de leur nature, d'indiquer clairement le rôle qui peut donner l'approbation et d'énumérer les coordonnées de ce rôle".

Décider des divulgations

Les organisations devraient avoir une politique de divulgation de l'utilisation et de la surveillance des technologies d'IA générative aux parties prenantes internes et externes. Les directeurs juridiques devraient aider les entreprises à réfléchir aux informations qui doivent être divulguées et aux personnes avec lesquelles elles doivent être partagées.

"Un principe essentiel commun à toutes les juridictions mondiales (y compris l'UE qui établit les normes) est que les entreprises doivent être transparentes quant à leur utilisation de l'IA. Les consommateurs veulent savoir si les entreprises utilisent des applications d'IA générative pour élaborer des messages d'entreprise, que l'information apparaisse sur un site web public, un canal social ou une application", a déclaré M. Cohn.

"Cela signifie que les directeurs juridiques devraient exiger des employés qu'ils s'assurent que la sortie influencée par la GenAI est reconnaissable comme générée par une machine en étiquetant clairement le texte. Les organisations peuvent également envisager d'inclure une disposition visant à placer des filigranes dans les images générées par l'IA dans la mesure où cela est techniquement possible", a conclu M. Cohn.

Source : Gartner

Et vous ?

Quel est votre avis sur le sujet ?

Que pensez-vous de ces propositions de Gartner, sont-elles pertinentes ou crédibles selon vous ?

Voir aussi

L'ambition en matière d'IA et les scénarios de préparation à l'IA doivent être une priorité absolue pour les DSI au cours des 12 à 24 prochains mois, selon Gartner

Plus de 80 % des entreprises auront utilisé des API d'IA générative ou déployé des applications basées sur l'IA générative d'ici à 2026, selon Gartner

Les DSI doivent trouver un équilibre entre les promesses et les risques environnementaux de l'IA, selon Gartner

Une erreur dans cette actualité ? Signalez-nous-la !