IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les développeurs d'IA peuvent-ils être tenus pour responsables en cas de négligence ?
Pour Bryan H. Choi, les approches actuelles leur permettent de se dissocier des préjudices qu'ils infligent à autrui

Le , par Stéphane le calme

86PARTAGES

6  0 
Avec l’essor rapide de l’intelligence artificielle (IA), une question cruciale émerge : les développeurs d’IA peuvent-ils être tenus responsables de la négligence? C'est la problématique qu'aborde Bryan H. Choi, professeur associé de droit et d'informatique et d'ingénierie à l'université de l'État de l'Ohio, qui note que les approches les plus populaires en matière de sécurité et de responsabilité de l'IA se sont concentrées sur les caractéristiques et les risques technologiques des systèmes d'IA, tout en détournant l'attention des travailleurs responsables de la conception, de la mise en œuvre, des essais et de l'entretien de ces systèmes.

Des approches qui permettent aux ingénieurs de l'IA de se dissocier des préjudices qu'ils infligent à autrui.


Bryan H. Choi note qu'à ce jour, les approches les plus populaires en matière de sécurité et de responsabilité de l'IA se sont concentrées sur les caractéristiques et les risques technologiques des systèmes d'IA, tout en détournant l'attention des travailleurs responsables de la conception, de la mise en œuvre, des essais et de l'entretien de ces systèmes.

Des initiatives telles que la loi européenne sur l'IA illustrent cette approche, en ce sens qu'elles conditionnent la surveillance réglementaire à des attributs techniques tels que la quantité de calcul utilisée pour l'entraînement ou la mise au point d'un modèle d'IA. De même, le cadre de la responsabilité du fait des produits pour l'IA pointe du doigt les caractéristiques dangereuses des produits et minimise le comportement des décideurs humains.

D'autres propositions, telles que la responsabilité stricte ou les analogies entre l'IA « sensible » et les enfants ou les animaux sauvages, évitent également de s'engager dans les processus humains par lesquels l'IA est fabriquée.

Cette approche technologique permet aux ingénieurs de l'IA de se dissocier des préjudices qu'ils infligent à autrui.

« J'ai déjà affirmé qu'une approche fondée sur la négligence était nécessaire, car elle oriente le contrôle juridique vers les personnes réellement responsables de la création et de la gestion des systèmes d'IA. Le projet de loi californien sur la sécurité de l'IA constitue un pas dans cette direction. Il précise que les développeurs d'IA doivent élaborer et mettre en œuvre des protocoles qui incarnent "l'obligation du développeur de prendre des précautions raisonnables pour éviter de produire un modèle couvert ou un dérivé de modèle couvert qui présente un risque déraisonnable de causer ou de permettre matériellement un dommage critique" (c'est nous qui soulignons) ».

Bien que les leaders de la technologie se soient opposés au projet de loi californien, les tribunaux n'ont pas besoin d'attendre une législation pour autoriser les plaintes pour négligence contre les développeurs d'IA. Mais comment la négligence fonctionnerait-elle dans le contexte de l'IA, et quels effets en aval les développeurs d'IA devraient-ils anticiper ?


La négligence et l’IA : un cadre juridique

La négligence est une théorie de la responsabilité délictuelle qui oblige les individus à agir avec une diligence raisonnable. Si un manquement à cette diligence cause un préjudice à autrui, la personne fautive peut être tenue responsable et condamnée à des dommages-intérêts compensatoires et punitifs. Dans le contexte de l’IA, cela signifie que les développeurs pourraient être tenus responsables si leur manque de soin dans la conception, le développement ou la maintenance des systèmes d’IA cause des dommages.

Les éléments de la négligence

Pour prouver la négligence, quatre éléments doivent être établis : l'obligation, la violation, la cause factuelle et proximale, et le préjudice. Ces éléments sont essentiels pour déterminer si les développeurs d’IA ont manqué à leur devoir de diligence. La négligence étant une créature de la common law des États, la manière dont ces éléments sont énoncés, interprétés et appliqués dans les différents cas peut varier d'un État à l'autre. Cela dit, l'essentiel de la négligence reste le même : une négligence injustifiée.

Le manque de diligence

« Quel degré de diligence est "suffisant" pour éviter la responsabilité ? L'attente habituelle par défaut est la "diligence raisonnable", ou ce qu'une "personne raisonnablement prudente" aurait fait. En règle générale, c'est un jury de pairs qui décide de ce qui est raisonnable. Par ailleurs, dans certaines situations bien définies - par exemple, les lois sur la sécurité routière -, le législateur ou l'agence peut énoncer des violations de la loi qui servent de preuve per se du caractère déraisonnable, ou de "négligence per se". Dans des circonstances particulières, une norme de diligence...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !