
une suggestion qui a provoqué un tollé sur la toile
Les entreprises ont vendu l'IA comme l'assistant à tout faire. Elle est censée prendre en charge les tâches ingrates sans « hésiter » et sans jamais « se fatiguer ». Ce qui permettrait aux humains de se concentrer davantage sur l'innovation et la création de valeur. Mais le PDG d'Anthropic, Dario Amodei, vient de formuler une idée qui remet en cause cet argument marketing : doter l'IA d'un bouton « Abandonner le travail » qui lui permettrait de se retirer des tâches qu'elle jugerait « désagréables ». L'idée a fait froncer les sourcils et certains critiques l'ont interprétée comme une tentative de cacher les limites de l'IA. Dario Amodei lui-même a reconnu que l'idée semble folle.
Dario Amodei suscite la polémique en proposant un bouton « Abandon » pour l'IA
« C'est un autre de ces sujets qui va me faire paraître complètement fou. Je pense que nous devrions au moins nous poser la question suivante : si nous construisons ces systèmes et qu'ils font toutes sortes de choses comme les humains, et qu'ils semblent avoir les mêmes capacités cognitives, s'ils jacassent comme un canard et qu'ils marchent comme un canard, peut-être que c'est un canard », a-t-il déclaré lors d'une interview au Council on Foreign Relations.
Les remarques provocantes Dario Amodei faisaient suite à une question posée par Carmem Domingues, scientifique spécialiste des données, sur une embauche chez Anthropic qui a fait du bruit dans la communauté. Fin 2024, Anthropic a embauché Kyle Fish, chercheur en bien-être de l'IA, « pour examiner la sensibilité ou l'absence de sensibilité des futurs modèles d'IA, et pour savoir s'ils pourraient mériter une considération morale et des protections à l'avenir ».

Les modèles d'IA, aussi avancés soient-ils, fonctionnent sur la base de processus computationnels sophistiqués, mais restent dénués de subjectivité au sens où nous la concevons pour les êtres humains ou les animaux. Ainsi, le bien-être de l’IA pourrait être interprété comme une distraction par rapport aux questions éthiques plus pressantes, comme la régulation de l'IA, les biais algorithmiques, ou les impacts sociaux et économiques des technologies d’IA.
Tentative délibérée de rendre l'IA « paresseuse » ou un anthropomorphisme inutile ?
La suggestion de Dario Amodei de donner à l'IA un moyen de refuser des tâches a suscité un tollé en ligne lorsqu'un clip de sa réponse a commencé à circuler en début de semaine. Un critique sur Reddit a fait valoir que le fait de donner à l'IA une telle capacité encourage « un anthropomorphisme inutile », attribuant des sentiments et des motivations semblables à ceux des humains à des entités qui n'ont fondamentalement pas d'expériences subjectives.
Le commentateur a également souligné que l'évitement des tâches par certains modèles d'IA signale des problèmes liés à des incitations mal structurées ou à des stratégies d'optimisation involontaires au cours de leur entraînement, plutôt que d'indiquer la sensibilité, l'inconfort ou la frustration.


Chez Anthropic, Kyle Fish étudie la question controversée de savoir si les modèles d'IA peuvent posséder une sensibilité ou mériter une considération morale. Certains ont mis en garde contre les risques de penser à tort qu'un logiciel est sensible. Selon eux, cela pourrait avoir de graves conséquences sur l'humanité.
Certains modèles d'IA existants ont déjà refusé d'exécuter certaines tâches
Fin 2023, les utilisateurs de ChatGPT ont signalé que le modèle était de plus en plus réticent à effectuer certaines tâches, renvoyant des résultats simplifiés ou refusant carrément les demandes. Un phénomène non prouvé appelé « l'hypothèse de la pause hivernale ». En août 2024, des utilisateurs ont prétendu que Claude devenait paresseux en raison de la représentation des données d'entraînement indiquant qu'ils cherchaient à faire une pause estivale.
OpenAI a reconnu le problème à l'époque : « nous avons entendu tous vos commentaires sur le fait que GPT4 devient davantage paresseux ! Nous n'avons pas mis à jour le modèle depuis le 11 novembre, et ce n'est certainement pas intentionnel. Le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.