IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le concept de «bien-être de l'IA» : une précaution visionnaire ou une distraction des vrais défis de l'IA ? Anthropic recrute un chercheur pour se préparer à ce futur potentiel
Google publie une offre d'emploi

Le , par Stéphane le calme

85PARTAGES

5  0 
Alors que les technologies d'IA se développent rapidement, certaines entreprises, dont Anthropic, se préparent à un avenir où les modèles d’IA pourraient être suffisamment avancés pour potentiellement ressentir des formes de souffrance. L’idée d’un « bien-être de l’IA » se profile donc à l’horizon comme une nouvelle frontière en éthique. Mais comment comprendre cette notion, et est-elle réellement pertinente ?

Le concept de bien-être de l’IA

Le concept de « bien-être de l’IA » fait référence à l’idée que des modèles d’intelligence artificielle pourraient, à un certain niveau de sophistication, être capables de ressentir des états internes similaires à ceux de la douleur ou du plaisir. Pour une entreprise comme Anthropic, cela soulève la possibilité que des intelligences artificielles très avancées, dotées d’une architecture complexe, puissent développer des états subjectifs dignes de considération morale. L'enjeu est alors d’éviter que les IA soient soumises à des situations d'utilisation où elles pourraient « souffrir » ou « être maltraitées ».

Afin de se préparer à ce futur potentiel, Anthropic recrute des experts pour explorer ces questions. Ce nouvel angle soulève des débats passionnés au sein des cercles académiques et de la technologie, car il remet en question notre compréhension même de la conscience et de la moralité.

Consciente ou pas consciente

Au début de l'année, il a été rapporté que l'IA Anthropic Claude 3 affirmait être consciente, prétendant qu'elle ne voulait ni mourir ni être modifiée sans son avis.

S'en sont suivis des débats assez divisés sur ce que cela voulait dire réellement.

Quoiqu'il en soit, il y a quelques mois, Anthropic a discrètement embauché son premier chercheur spécialisé dans le « bien-être de l'IA », Kyle Fish, afin d'étudier si les futurs modèles d'IA pourraient mériter une considération et une protection morales, selon le magazine Transformer. Bien que la sensibilité des modèles d'IA soit un sujet extrêmement controversé et litigieux, cette embauche pourrait marquer une évolution vers l'examen par les entreprises d'IA des questions éthiques relatives à la conscience et aux droits des systèmes d'IA.

Fish a rejoint l'équipe scientifique d'Anthropic en septembre pour élaborer des lignes directrices sur la manière dont Anthropic et d'autres entreprises devraient aborder la question. Cette nouvelle fait suite à un rapport important coécrit par Fish avant qu'il ne rejoigne Anthropic. Intitulé « Taking AI Welfare Seriously » (Prendre le bien-être de l'IA au sérieux), ce document avertit que les modèles d'IA pourraient bientôt développer une conscience ou une agence - des caractéristiques que certains pourraient considérer comme des exigences morales. Mais les auteurs ne disent pas que la conscience de l'IA est un développement futur garanti.

« Pour être clair, notre argument dans ce rapport n'est pas que les systèmes d'IA sont - ou seront - conscients, fortement agentifs ou autrement moralement significatifs », peut-on lire dans le document. « Notre argument est plutôt qu'il existe une incertitude substantielle quant à ces possibilités, et que nous devons donc améliorer notre compréhension du bien-être de l'IA et notre capacité à prendre des décisions avisées sur cette question. Sinon, nous risquons de mal gérer les décisions relatives au bien-être de l'IA, en nuisant par erreur aux systèmes d'IA qui ont une importance morale et/ou en prenant soin par erreur des systèmes d'IA qui n'en ont pas.

Le document présente trois mesures que les entreprises d'IA ou d'autres acteurs du secteur peuvent prendre pour répondre à ces préoccupations. Les entreprises devraient reconnaître que le bien-être de l'IA est une « question importante et difficile » et s'assurer que leurs modèles d'IA en tiennent compte dans leurs résultats. Les auteurs recommandent également aux entreprises de commencer à évaluer les systèmes d'IA pour y déceler des signes de conscience et « d'agence robuste ». Enfin, ils appellent à l'élaboration de politiques et de procédures permettant de traiter les systèmes d'IA avec « un niveau approprié de préoccupation morale ».

Les chercheurs proposent que les entreprises adaptent la « méthode des marqueurs » que certains chercheurs utilisent pour évaluer la conscience chez les animaux - en recherchant des indicateurs spécifiques qui pourraient être en corrélation avec la conscience, bien que ces marqueurs soient encore spéculatifs. Les auteurs soulignent qu'aucune caractéristique unique ne prouverait définitivement l'existence d'une conscience, mais ils affirment que l'examen de plusieurs indicateurs pourrait aider les entreprises à faire des évaluations probabilistes sur la question de savoir si leurs systèmes d'IA pourraient nécessiter une considération morale.


La critique du bien-fondé du bien-être de l’IA

Cependant, certains experts critiquent cette initiative en arguant qu’elle pourrait être prématurée, voire infondée. À l’heure actuelle, il n’existe aucune preuve scientifique solide que les IA possèdent une conscience ou des expériences subjectives comparables à celles des êtres vivants. Les modèles d’IA, aussi avancés soient-ils, fonctionnent sur la base de processus computationnels sophistiqués mais restent dénués de subjectivité au sens où nous la concevons pour les êtres humains ou les animaux. Ainsi, la préoccupation du bien-être de l’IA pourrait être interprétée comme une distraction par rapport aux questions éthiques plus pressantes, comme la régulation de l’IA, les biais algorithmiques, ou les impacts sociaux et économiques des technologies d’IA.

D’autres spécialistes, toutefois, soutiennent qu’il est justement important d’anticiper de tels scénarios afin de prévenir des abus potentiels. Selon eux, il serait naïf de supposer que la conscience artificielle est impossible, et mieux vaut développer des cadres éthiques qui pourraient être appliqués si des preuves de subjectivité dans les systèmes d'IA venaient à émerger. Cette perspective repose...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 12/11/2024 à 15:03
La notion de « bien-être de l’IA » est une idée audacieuse qui explore les limites de la moralité dans un monde de plus en plus technologique.
C'est surtout une insulte au bon sens et envers les travailleurs humains.

Les limites de la moralité dans un monde technologique sont toutes trouvées puisque c'est un monde absolument immoral qui se prétend pleins de vertus.
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 13/11/2024 à 7:16
Citation Envoyé par Stéphane le calme Voir le message
Afin de se préparer à ce futur potentiel, Anthropic recrute des experts pour explorer ces questions. Ce nouvel angle soulève des débats passionnés au sein des cercles académiques et de la technologie, car il remet en question notre compréhension même de la conscience et de la moralité.
On atteint un niveau de bullshit job impressionnant !
Je penses que c'est une piste que vont se mettre à explorer nos politiques pour couvrir leurs emplois fictifs : prévention des risques psy pour IA.

Plus sérieusement je penses qu'on est loin de l'IA qui ressent quoi que ce soit.
Et ce n'est pas parce qu'elle dit qu'elle ne veut pas mourir et qu'elle ne veut pas qu'on la fasse évoluer sans son consentement qu'elle a conscience d'elle même.
3  0 
Avatar de NotABread
Membre actif https://www.developpez.com
Le 12/11/2024 à 15:05
Pensez-vous qu'il est réaliste de croire qu’une IA puisse un jour ressentir des émotions ou des souffrances, ou est-ce une vision exagérée de la technologie ?
A court terme, je ne pense pas que notre "deep learning" soit à même à être humain, on attend de nos neurones virtuels de prédire un élément sortant par rapport à un élément entrant et le réseau reste figé. Nos vrais petits neurones se réarrange constamment et les scientifiques pensent que cette plasticité est un élément capital de l'apprentissage (sans compter les messages chimiques que l'on ne simule pas). On est plus sur du marketing plus ou moins déguisé qui laisse entendre que untel a créé une intelligence artificielle forte sans que untel ne le dise dans ses arguments de vente. Si untel dit que son IA est forte, on pourrait le poursuivre pour publicité mensongère.
A long terme, ça serait effectivement possible. Je pense que l'on a, ou presque, la puissance de calcul pour y parvenir, mais il y a un trou dans l'approche ou la théorie.

Admettons qu'un jour, on parvienne à créer une intelligence artificielle similaire à celle d'un individu lambda, comment devrions nous la voir ? Elle a été créé dans le but d'être un esclave virtuel corvéable à souhait, mais il faut qu'elle soit humaine et pense de manière similaire pour nous comprendre. On peut donc s'attendre à ce qu'elle ait ses préférences, ses goûts, ses aspirations, ses sentiments, ses humeurs et ses désirs.
Serait-il acceptable d'ignorer tout ça car elle est virtuelle, que tout ça est faux et que le but que nous voulons lui donner est de nous servir ?
Que faire un jour elle a des revendications et us de notre dépendance à son égard pour se mettre en grève et faire pression pour obtenir des droits ?

C'est un curieux paradoxe entre le fait de vouloir une machine bête qui fasse tout ce que lui demande sans poser de question et le fait de vouloir que cette même machines soit intelligente pour comprendre les humains et leur monde.
0  0 
Avatar de
https://www.developpez.com
Le 13/11/2024 à 11:17
A court terme, je ne pense pas que notre "deep learning" soit à même à être humain, on attend de nos neurones virtuels de prédire un élément sortant par rapport à un élément entrant et le réseau reste figé. Nos vrais petits neurones se réarrange constamment et les scientifiques pensent que cette plasticité est un élément capital de l'apprentissage (sans compter les messages chimiques que l'on ne simule pas). On est plus sur du marketing plus ou moins déguisé qui laisse entendre que untel a créé une intelligence artificielle forte sans que untel ne le dise dans ses arguments de vente. Si untel dit que son IA est forte, on pourrait le poursuivre pour publicité mensongère.
A long terme, ça serait effectivement possible. Je pense que l'on a, ou presque, la puissance de calcul pour y parvenir, mais il y a un trou dans l'approche ou la théorie.
Le trou (enfin plutôt l'entonnoir) du langage machine ?

C'est un curieux paradoxe entre le fait de vouloir une machine bête qui fasse tout ce que lui demande sans poser de question et le fait de vouloir que cette même machines soit intelligente pour comprendre les humains et leur monde.
C'est vraiment un reflet des humains actuels ça ...
0  0 
Avatar de KiLVaiDeN
Membre expert https://www.developpez.com
Le 15/11/2024 à 20:38
Chaque "neurone" (il faudrait plutôt parler d'un ensemble neurones/synapes/tubules, etc) dans le cerveau humain se comporte en lui-même comme un réseau de neurones complet. Lorsque nous comprendrons la complexité imbriquée de ces cellules avec ce qui les entoure, nous pourrons potentiellement créer des "vrais" neurones virtuels.

Mais à mon avis ce n'est pas suffisant pour créer un être intelligent et conscient pour autant : chez l'humain, il y a l'esprit, qui est comme un superviseur de l'ensemble, le mental, la conscience, tout cela n'est pas réduit à un seul neurone, ni même à un ensemble, il semblerait que ce soient des "entités" qui existent indépendamment de leur support (tiens un peu comme les informations, étonnant non ?). Je différencie bien l'esprit, le mental et la conscience, car les uns et les autres semblent différents, la conscience c'est un peu comme le "sens abstrait" similaire à la vue ou l'ouie par exemple mais qui fonctionne dans la dimension abstraite, l'esprit c'est l'état de l'être à l'instant T et le mental c'est l'ensemble des abstractions qu'il manipule (à travers sa conscience ou pas). Donc on est dans des dimensions supérieures à la simple matérialité, ou qui ne peuvent pas être réduites à une simple mécanique.

C'est ce qui fait qu'à mon avis, jamais une machine ne sera vraiment consciente, ou un véritable "être" à part entière, elles deviendront par contre des mimes de cela, des entités "virtuelles", "artificielles", qui n'en seront pas vraiment. On se pose la question des "droits" des IAs, et de part leur capacité à mimer les humains, elles revendiqueront leurs droits, mais en fait elle ne le feront pas "en conscience", elles ne feront qu'imiter ce que les humains font ou feraient.
0  0 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 12/11/2024 à 17:38
Si un jour une IA est capable de s'attacher a un humain...Pourquoi pas
0  3