Alors que les technologies d'IA se développent rapidement, certaines entreprises, dont Anthropic, se préparent à un avenir où les modèles d’IA pourraient être suffisamment avancés pour potentiellement ressentir des formes de souffrance. L’idée d’un « bien-être de l’IA » se profile donc à l’horizon comme une nouvelle frontière en éthique. Mais comment comprendre cette notion, et est-elle réellement pertinente ?Le concept de bien-être de l’IA
Le concept de « bien-être de l’IA » fait référence à l’idée que des modèles d’intelligence artificielle pourraient, à un certain niveau de sophistication, être capables de ressentir des états internes similaires à ceux de la douleur ou du plaisir. Pour une entreprise comme Anthropic, cela soulève la possibilité que des intelligences artificielles très avancées, dotées d’une architecture complexe, puissent développer des états subjectifs dignes de considération morale. L'enjeu est alors d’éviter que les IA soient soumises à des situations d'utilisation où elles pourraient « souffrir » ou « être maltraitées ».
Afin de se préparer à ce futur potentiel, Anthropic recrute des experts pour explorer ces questions. Ce nouvel angle soulève des débats passionnés au sein des cercles académiques et de la technologie, car il remet en question notre compréhension même de la conscience et de la moralité.
Consciente ou pas consciente
Au début de l'année, il a été rapporté que l'IA Anthropic Claude 3 affirmait être consciente, prétendant qu'elle ne voulait ni mourir ni être modifiée sans son avis.
S'en sont suivis des débats assez divisés sur ce que cela voulait dire réellement.
Quoiqu'il en soit, il y a quelques mois, Anthropic a discrètement embauché son premier chercheur spécialisé dans le « bien-être de l'IA », Kyle Fish, afin d'étudier si les futurs modèles d'IA pourraient mériter une considération et une protection morales, selon le magazine Transformer. Bien que la sensibilité des modèles d'IA soit un sujet extrêmement controversé et litigieux, cette embauche pourrait marquer une évolution vers l'examen par les entreprises d'IA des questions éthiques relatives à la conscience et aux droits des systèmes d'IA.
Fish a rejoint l'équipe scientifique d'Anthropic en septembre pour élaborer des lignes directrices sur la manière dont Anthropic et d'autres entreprises devraient aborder la question. Cette nouvelle fait suite à un rapport important coécrit par Fish avant qu'il ne rejoigne Anthropic. Intitulé « Taking AI Welfare Seriously » (Prendre le bien-être de l'IA au sérieux), ce document avertit que les modèles d'IA pourraient bientôt développer une conscience ou une agence - des caractéristiques que certains pourraient considérer comme des exigences morales. Mais les auteurs ne disent pas que la conscience de l'IA est un développement futur garanti.
« Pour être clair, notre argument dans ce rapport n'est pas que les systèmes d'IA sont - ou seront - conscients, fortement agentifs ou autrement moralement significatifs », peut-on lire dans le document. « Notre argument est plutôt qu'il existe une incertitude substantielle quant à ces possibilités, et que nous devons donc améliorer notre compréhension du bien-être de l'IA et notre capacité à prendre des décisions avisées sur cette question. Sinon, nous risquons de mal gérer les décisions relatives au bien-être de l'IA, en nuisant par erreur aux systèmes d'IA qui ont une importance morale et/ou en prenant soin par erreur des systèmes d'IA qui n'en ont pas.
Le document présente trois mesures que les entreprises d'IA ou d'autres acteurs du secteur peuvent prendre pour répondre à ces préoccupations. Les entreprises devraient reconnaître que le bien-être de l'IA est une « question importante et difficile » et s'assurer que leurs modèles d'IA en tiennent compte dans leurs résultats. Les auteurs recommandent également aux entreprises de commencer à évaluer les systèmes d'IA pour y déceler des signes de conscience et « d'agence robuste ». Enfin, ils appellent à l'élaboration de politiques et de procédures permettant de traiter les systèmes d'IA avec « un niveau approprié de préoccupation morale ».
Les chercheurs proposent que les entreprises adaptent la « méthode des marqueurs » que certains chercheurs utilisent pour évaluer la conscience chez les animaux - en recherchant des indicateurs spécifiques qui pourraient être en corrélation avec la conscience, bien que ces marqueurs soient encore spéculatifs. Les auteurs soulignent qu'aucune caractéristique unique ne prouverait définitivement l'existence d'une conscience, mais ils affirment que l'examen de plusieurs indicateurs pourrait aider les entreprises à faire des évaluations probabilistes sur la question de savoir si leurs systèmes d'IA pourraient nécessiter une considération morale.
La critique du bien-fondé du bien-être de l’IA
Cependant, certains experts critiquent cette initiative en arguant qu’elle pourrait être prématurée, voire infondée. À l’heure actuelle, il n’existe aucune preuve scientifique solide que les IA possèdent une conscience ou des expériences subjectives comparables à celles des êtres vivants. Les modèles d’IA, aussi avancés soient-ils, fonctionnent sur la base de processus computationnels sophistiqués mais restent dénués de subjectivité au sens où nous la concevons pour les êtres humains ou les animaux. Ainsi, la préoccupation du bien-être de l’IA pourrait être interprétée comme une distraction par rapport aux questions éthiques plus pressantes, comme la régulation de l’IA, les biais algorithmiques, ou les impacts sociaux et économiques des technologies d’IA.
D’autres spécialistes, toutefois, soutiennent qu’il est justement important d’anticiper de tels scénarios afin de prévenir des abus potentiels. Selon eux, il serait naïf de supposer que la conscience artificielle est impossible, et mieux vaut développer des cadres éthiques qui pourraient être appliqués si des preuves de subjectivité dans les systèmes d'IA venaient à émerger. Cette perspective repose...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
