
Bryan H. Choi estime que les approches actuelles de réglementation permettent aux ingénieurs de l'IA de se dissocier des préjudices qu'ils infligent à autrui
Avec l’essor rapide de l’intelligence artificielle (IA), une question cruciale émerge : les développeurs d’IA peuvent-ils être tenus responsables de la négligence? C'est la problématique qu'aborde Bryan H. Choi, professeur associé de droit et d'informatique et d'ingénierie à l'université de l'État de l'Ohio, qui note que les approches les plus populaires en matière de sécurité et de responsabilité de l'IA se sont concentrées sur les caractéristiques et les risques technologiques des systèmes d'IA, tout en détournant l'attention des travailleurs responsables de la conception, de la mise en œuvre, des essais et de l'entretien de ces systèmes.
Des approches qui permettent aux ingénieurs de l'IA de se dissocier des préjudices qu'ils infligent à autrui.
Bryan H. Choi note qu'à ce jour, les approches les plus populaires en matière de sécurité et de responsabilité de l'IA se sont concentrées sur les caractéristiques et les risques technologiques des systèmes d'IA, tout en détournant l'attention des travailleurs responsables de la conception, de la mise en œuvre, des essais et de l'entretien de ces systèmes.
Des initiatives telles que la loi européenne sur l'IA illustrent cette approche, en ce sens qu'elles conditionnent la surveillance réglementaire à des attributs techniques tels que la quantité de calcul utilisée pour l'entraînement ou la mise au point d'un modèle d'IA. De même, le cadre de la responsabilité du fait des produits pour l'IA pointe du doigt les caractéristiques dangereuses des produits et minimise le comportement des décideurs humains.
D'autres propositions, telles que la responsabilité stricte ou les analogies entre l'IA « sensible » et les enfants ou les animaux sauvages, évitent également de s'engager dans les processus humains par lesquels l'IA est fabriquée.
Cette approche technologique permet aux ingénieurs de l'IA de se dissocier des préjudices qu'ils infligent à autrui.
« J'ai déjà affirmé qu'une approche fondée sur la négligence était nécessaire, car elle oriente le contrôle juridique vers les personnes réellement responsables de la création et de la gestion des systèmes d'IA. Le projet de loi californien sur la sécurité de l'IA constitue un pas dans cette direction. Il précise que les développeurs d'IA doivent élaborer et mettre en œuvre des protocoles qui incarnent "l'obligation du développeur de prendre des précautions raisonnables pour éviter de produire un modèle couvert ou un dérivé de modèle couvert qui présente un risque déraisonnable de causer ou de permettre matériellement un dommage critique" (c'est nous qui soulignons) ».
Bien que les leaders de la technologie se soient opposés au projet de loi californien, les tribunaux n'ont pas besoin d'attendre une législation pour autoriser les plaintes pour négligence contre les développeurs d'IA. Mais comment la négligence fonctionnerait-elle dans le contexte de l'IA, et quels effets en aval les développeurs d'IA devraient-ils anticiper ?
La négligence et l’IA : un cadre juridique
La négligence est une théorie de la responsabilité délictuelle qui oblige les individus à agir avec une diligence raisonnable. Si un manquement à cette diligence cause un préjudice à autrui, la personne fautive peut être tenue responsable et condamnée à des dommages-intérêts compensatoires et punitifs. Dans le contexte de l’IA, cela signifie que les développeurs pourraient être tenus responsables si leur manque de soin dans la conception, le développement ou la maintenance des systèmes d’IA cause des dommages.
Les éléments de la négligence
Pour prouver la négligence, quatre éléments doivent être établis : l'obligation, la violation, la cause factuelle et proximale, et le préjudice. Ces éléments sont essentiels pour déterminer si les développeurs d’IA ont manqué à leur devoir de diligence. La négligence étant une créature de la common law des États, la manière dont ces éléments sont énoncés, interprétés et appliqués dans les différents cas peut varier d'un État à l'autre. Cela dit, l'essentiel de la négligence reste le même : une négligence injustifiée.
Le manque de diligence
« Quel degré de diligence est "suffisant" pour éviter la responsabilité ? L'attente habituelle par défaut est la "diligence raisonnable", ou ce qu'une "personne raisonnablement prudente" aurait fait. En règle générale, c'est un jury de pairs qui décide de ce qui est raisonnable. Par ailleurs, dans certaines situations bien définies - par exemple, les lois sur la sécurité routière -, le législateur ou l'agence peut énoncer des violations de la loi qui servent de preuve per se du caractère déraisonnable, ou de "négligence per se". Dans des circonstances particulières, une norme de diligence différente peut être substituée, telle que la diligence maximale, la diligence habituelle ou la négligence grave (absence de diligence, même légère).
« La norme du caractère raisonnable est une norme objective qui impose à toutes les personnes se trouvant dans une situation similaire la même attente en matière de soins. Il s'agit d'un changement moderne qui consiste à passer d'une conception du devoir de diligence comme étant simplement la diligence ordinaire (comment les gens se comportent habituellement) à une conception normative de la diligence raisonnable (comment les gens devraient se comporter).
« Par exemple, tous les conducteurs sont jugés de la même manière, qu'il s'agisse de pilotes de course professionnels ou d'adolescents qui viennent d'obtenir leur permis de conduire. De même, tout modélisateur d'IA - de l'amateur non rémunéré à l'expert rémunéré - est censé connaître tous les concepts qu'un modélisateur d'IA raisonnablement prudent devrait connaître. Invoquer l'ignorance d'une technique couramment utilisée ne serait pas une excuse valable. Il ne suffit pas non plus de se conformer aux normes de l'industrie, si l'ensemble de l'industrie est à la traîne par rapport aux niveaux de précaution acceptables. Dans le même temps, on n'attend pas d'un modélisateur d'IA raisonnable qu'il intègre des recherches de pointe, en particulier lorsqu'elles ne sont pas bien établies dans la pratique.
« Le caractère raisonnable est également une norme flexible qui prend en compte des informations contextuelles sur les connaissances et les compétences d'une catégorie de personnes se trouvant dans une situation similaire. Ainsi, on peut s'attendre à ce qu'un modélisateur d'IA ait l'équivalent d'un doctorat en apprentissage automatique, alors qu'un analyste de données qui nettoie les données d'entraînement peut être comparé à un diplômé de l'enseignement secondaire ou supérieur. D'autres facteurs contextuels influençant la détermination de la diligence raisonnable peuvent inclure le type de modèle ou de système d'IA, le domaine d'application et les conditions du marché. Par exemple, la diligence raisonnable pour les systèmes de véhicules autonomes peut être très différente de la diligence raisonnable pour les grands modèles de langage, et ainsi de suite ».
Les défis de la responsabilité des développeurs d’IA
[LIST][*]Complexité technique : les systèmes d’IA sont souvent complexes et opaques, ce qui rend difficile l’identification des erreurs humaines spécifiques qui ont conduit à un dysfonctionnement. Par exemple, un algorithme de machine learning peut prendre des décisions basées sur des milliers de variables, rendant l’analyse des causes d’un échec particulièrement ardue.[*]Partage de responsabilité : la création d’un système d’IA implique souvent plusieurs parties, y compris les développeurs, les entreprises, et les utilisateurs finaux. Déterminer qui est responsable peut être compliqué. Par exemple, si un véhicule autonome cause un accident, la responsabilité peut être partagée entre le fabricant du véhicule, le développeur du logiciel, et même le propriétaire du véhicule.[*]Évolution juridique : les lois actuelles ne sont pas toujours adaptées pour traiter les questions spécifiques à l’IA. Par exemple, la législation californienne sur la sécurité de l’IA exige que les développeurs mettent en œuvre des protocoles pour éviter les risques déraisonnables. Cependant, ces lois sont encore en évolution et peuvent varier considérablement d’une juridiction à l’autre...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.