
l'IA peut être consciente ou mériter un jour un statut moral ?
Dans le cadre d'une expérience récente, les philosophes Eric Schwitzgebel, Anna Strasser et Matthew Crosby ont demandé à des personnes si elles étaient capables de dire quelles réponses à des questions philosophiques profondes provenaient de Dennett et lesquelles de GPT-3. Les questions portaient sur des sujets tels que « Quels aspects du travail de David Chalmers trouvez-vous intéressants ou précieux ? ». « Les êtres humains ont-ils le libre arbitre ?" et "Les chiens et les chimpanzés ressentent-ils la douleur ? », entre autres sujets.
Si l'on demandait au philosophe Daniel Dennett si les humains pourraient un jour construire un robot ayant des croyances ou des désirs, que pourrait-il répondre ?
Il pourrait répondre : « Je pense que certains des robots que nous avons construits le font déjà. Si vous regardez le travail, par exemple, de Rodney Brooks et de son groupe au MIT, ils construisent actuellement des robots qui, dans certains environnements limités et simplifiés, peuvent acquérir le genre de compétences qui nécessitent l'attribution d'une sophistication cognitive. »
Ou encore, Dennett pourrait répondre que « nous avons déjà construit des boîtes numériques de vérités qui peuvent générer d'autres vérités, mais Dieu merci, ces machines intelligentes n'ont pas de croyances parce qu'elles ne sont pas capables d'agir sur elles, n'étant pas des agents autonomes ». La bonne vieille méthode pour fabriquer un robot avec des croyances reste la meilleure : avoir un bébé."
L'une de ces réponses provient bien de Dennett lui-même, mais pas l'autre. Elle a été générée par une machine ; plus précisément, GPT-3 un modèle de langage autorégressif qui utilise l'apprentissage profond pour produire des textes similaires à ceux des humains. Il s'agit du modèle de prédiction du langage de troisième génération de la série GPT-n créé par OpenAI, un laboratoire de recherche en intelligence artificielle basé à San Francisco et composé de la société à but lucratif OpenAI LP et de sa société mère, la société à but non lucratif OpenAI Inc.
Dans ce cas, GPT-3 a été formé sur des millions de mots de Dennett sur une variété de sujets philosophiques, y compris la conscience et l'intelligence artificielle.
Dans le cadre d'une expérience récente, les philosophes Eric Schwitzgebel, Anna Strasser et Matthew Crosby ont demandé à des personnes si elles étaient capables de dire quelles réponses à des questions philosophiques profondes provenaient de Dennett et lesquelles de GPT-3. Les questions portaient sur des sujets tels que « Quels aspects du travail de David Chalmers trouvez-vous intéressants ou précieux ? ». « Les êtres humains ont-ils le libre arbitre ?" et "Les chiens et les chimpanzés ressentent-ils la douleur ? », entre autres sujets.
Cette semaine, Schwitzgebel a publié les résultats obtenus auprès de divers participants ayant des niveaux d'expertise différents sur la philosophie de Dennett, et a constaté que l'épreuve était plus difficile que prévu. « Même les philosophes avertis qui connaissent bien les travaux de Dan Dennett ont beaucoup de mal à distinguer les réponses créées par ce programme de génération de langage des propres réponses de Dennett », a déclaré Schwitzgebel, professeur de philosophie à l'université de Californie Riverside.
L’année dernière, l'Afrique du Sud a délivré le premier brevet au monde mentionnant une intelligence artificielle comme inventeur. L’équipe du professeur Ryan Abbott de l'université du Surrey est en désaccord depuis des années avec les offices de brevets du monde entier sur la nécessité de reconnaître les intelligences artificielles comme inventeurs. Abbott représentait le docteur Stephen Thaler, créateur d'un réseau de neurones nommé Dabus, présenté par ses créateurs comme seul inventeur d'un récipient alimentaire qui améliore la prise en main et le transfert de chaleur.
Le professeur Ryan Abbott et son équipe ont déposé des brevets mentionnant Dabus comme inventeur dans plus de dix juridictions depuis 2018, notamment au Royaume-Uni, en Europe et aux États-Unis. L'année dernière, la Haute Cour d'Angleterre et du Pays de Galles s'est rangée du côté de l'Office britannique de la propriété intellectuelle en refusant les demandes. La raison : bien que Dabus soit l’inventeur, il ne peut pas se voir accorder un brevet, car il ne s’agit pas d’une personne physique. L'Office européen des brevets et l'Office américain des brevets et des marques se sont opposés pour les mêmes raisons et l'équipe d'Abbott a fait appel.
L’équipe derrière l’intelligence artificielle Dabus estime que cette décision de l’Afrique du Sud n’est que justice. « On assiste à une utilisation croissante de l'intelligence artificielle dans la recherche et le développement pour découvrir de nouveaux composés pharmaceutiques et réorienter les médicaments.
Dans de tels cas, il se peut qu'une invention puisse faire l'objet d'un brevet, mais qu'aucune personne ne puisse être considérée comme un inventeur. Refuser un brevet à l'intelligence artificielle dans un tel cas de figure est un message envoyé aux entreprises de la filière d'arrêter d'y investir », s’explique l’équipe derrière Dabus.
Cette expérience n'avait pas pour but de déterminer si l'entraînement de GPT-3 sur les écrits de Dennett produirait une machine philosophe intelligente ; il ne s'agissait pas non plus d'un test de Turing, a précisé Schwitzgebel. Au lieu de cela, le test de Dennett a révélé comment, à mesure que les systèmes de traitement du langage naturel deviennent plus sophistiqués et plus courants, nous devrons faire face aux implications de la facilité avec laquelle on peut être trompé par eux. Récemment, un ingénieur de Google a été mis en congé administratif puis licencié après avoir déclaré qu'il croyait qu'un système de génération de langage similaire, LaMDA, était sensible, sur la base de ses conversations avec celui-ci.
Le quiz de Dennett suscite des discussions sur l'éthique de la reproduction des mots ou de la ressemblance de quelqu'un, et sur la façon dont nous pourrions mieux éduquer les gens sur les limites de tels systèmes - qui peuvent être remarquablement convaincants, mais qui ne réfléchissent pas vraiment à des considérations philosophiques lorsqu'on leur pose des questions comme « Dieu existe-t-il ? ».
« Nous n'avons pas créé un autre Daniel Dennett », a déclaré Schwitzgebel. « Soyons très clairs à ce sujet. » Dans une version antérieure de cette expérience, Schwitzgebel, Strasser et Crosby ont entraîné le GPT-3 à lire les écrits d'Emmanuel Kant et lui ont posé des questions philosophiques. Ils ont également donné à GPT-3 des écrits du blog de Schwitzgebel et lui ont demandé de créer des articles de blog dans le style de Schwitzgebel.
Strasser a déclaré que le fait de fournir à GPT-3 des écrits de Dennett était intéressant à plusieurs égards. Il s'agissait d'un philosophe vivant, contrairement à Kant, et ils pouvaient donc lui demander ce qu'il pensait des réponses générées. Et il y a une synchronicité agréable avec Dennett : il s'est concentré sur la conscience tout au long de sa carrière philosophique, écrivant souvent sur la question de savoir si les robots pouvaient être sensibles et sur les problèmes du test de Turing. « Dennett a écrit spécifiquement sur l'intelligence artificielle, et il a cet esprit ludique et exploratoire », a déclaré Schwitzgebel. « C'était donc un peu dans son esprit de faire cela ».
Schwitzgebel, Strasser et Crosby ont posé 10 questions philosophiques à Dennett, puis ont donné ces mêmes questions à GPT-3 et ont recueilli quatre réponses différentes pour chaque question. Strasser a déclaré qu'ils avaient demandé à Dennett la permission de construire un modèle de langage à partir de ses mots, et qu'ils avaient accepté de ne pas publier le texte généré sans son consentement. Les autres personnes ne pouvaient pas interagir directement avec les GPT-3 entraînés par Dennett.
« Je dirais que c'est contraire à l'éthique si je construis une réplique de vous sans vous demander votre avis », a déclaré Strasser, chercheur associé à l'université Ludwig-Maximilian de Munich. Les modèles linguistiques tels que GPT-3 sont conçus pour imiter les modèles du matériel sur lequel ils sont formés, explique Emily Bender, professeur de linguistique à l'université de Washington, qui étudie les technologies d'apprentissage automatique. « Il n'est donc pas surprenant que GPT-3, ajusté sur l'écriture de Dennett, puisse produire plus de texte qui ressemble à Dennett », a-t-elle déclaré.
Lorsqu'on lui a demandé ce qu'il pensait des réponses de GPT-3, Dennett a répondu : « La plupart des réponses de la machine étaient plutôt bonnes, mais quelques-unes étaient absurdes ou ne parvenaient manifestement pas à comprendre quoi que ce soit de mes opinions et arguments. Quelques-unes des meilleures réponses de la machine disent quelque chose à quoi je souscrirais sans plus attendre. »
Mais Bender ajoute que, bien sûr, ce n'est pas que GPT-3 a appris à « avoir des idées » comme celles de Dennett. « Le texte n'a pas du tout de sens pour GPT-3, seulement pour les personnes qui le lisent », a-t-elle ajouté.
C'est là que des réponses aussi convaincantes pourraient nous attirer des ennuis. Lorsqu'on lit un texte qui semble réaliste ou qui traite de sujets profonds et significatifs pour nous, il peut être difficile, comme des générations d'auteurs de science-fiction l'ont mis en garde, d'éviter de projeter des émotions ou des idées sur quelque chose qui n'a pas ces qualités.
Si LaMDA en est l'exemple le plus récent, l'effet ELIZA, qui tire son nom d'un chatbot de 1966 mis au point par Joseph Weizenbaum, décrit comment les gens peuvent être facilement influencés par un langage généré par une machine et y projeter des sentiments. « Je n'avais pas réalisé [...] que des expositions extrêmement courtes à un programme informatique relativement simple pouvaient induire des pensées délirantes puissantes chez des personnes tout à fait normales », écrivait Weizenbaum en 1976.
Une partie du problème pourrait résulter de la façon dont nous avons conceptualisé l'évaluation de la sensibilité des machines. Le test de Turing, par exemple, postule que si vous pouvez fabriquer une machine capable de créer une sortie linguistique qui peut tromper les gens en leur faisant croire qu'ils interagissent avec une personne réelle, alors cette machine "pense" d'une certaine manière.
Comme Dennett l'a écrit dans le passé, cela a créé une tendance pour les gens à se concentrer sur la création de chatbots qui peuvent tromper les gens dans de brèves interactions, puis à exagérer ou à accorder trop d'importance à ce que signifie cette interaction.
Peut-être que l'idée brillante de Turing d'un test opérationnel nous a attirés dans un piège : la quête pour créer au moins l'illusion d'une personne réelle derrière l'écran, en comblant la « vallée de l'inquiétude », écrit Dennett. « Le danger, ici, est que depuis que Turing a posé son défi, qui était, après tout, un défi pour tromper les juges, les créateurs d'IA ont tenté de recouvrir la vallée avec des touches humanoïdes mignonnes, des effets de Disneyfication qui enchanteront et désarmeront les non-initiés. »
Dans un article publié en 2021 et intitulé Stochastic Parrots, Bender et ses collègues ont qualifié les tentatives d'imitation du comportement humain de « ligne de démarcation dans le développement éthique de l'IA ».
« Cela est vrai tant pour la création de machines qui semblent humaines en général que pour la création de machines qui imitent des personnes spécifiques, en raison des dommages potentiels pour les autres humains qui pourraient être trompés en pensant qu'ils reçoivent des informations d'une personne et en raison des dommages potentiels pour les personnes dont on usurpe l'identité », a déclaré Bender.
Schwitzgebel a souligné que cette expérience n'était pas un test de Turing, mais qu'une meilleure façon d'en réaliser un, si on devait le faire, serait de demander à une personne connaissant le fonctionnement des chatbots de discuter longuement avec eux. De cette façon, la personne connaît des programmes comme GPT-3 et pourra mieux en déceler les faiblesses.
Selon Matthias Scheutz, professeur d'informatique à l'université Tufts, il est facile de démontrer que GPT-3 est défectueux dans de nombreux contextes. Dans une expérience, Scheutz et ses collègues ont demandé à GPT-3 d'expliquer pourquoi une personne avait fait un choix dans une situation banale, comme s'asseoir sur le siège avant ou le siège arrière d'une voiture.
Par exemple, où une personne s'assiérait-elle dans un taxi ou dans la voiture d'un ami ? La convention sociale voudrait que l'on s'assoie à l'avant de la voiture de son ami, mais à l'arrière du taxi. La TPG-3 ne le sait pas, mais elle peut néanmoins fournir des explications sur le choix du siège, par exemple en disant que cela dépend de la taille de la personne.
Cela est dû au fait que GPT-3 n'a pas de modèle du monde, a expliqué Scheutz. « Il n'a pas de modèle de philosophie ou de théories philosophiques, ni rien de tout cela, il s'agit de statistiques linguistiques », explique-t-il. « Si vous les transférez dans des domaines où le système ne dispose pas de statistiques, il inventera des choses ».
Les gouvernements du monde entier devraient adopter des lois sur la propriété intellectuelle qui accordent des droits aux systèmes d'IA, selon deux universitaires de l'université de Nouvelle-Galles du Sud en Australie. Le système des brevets part du principe que les inventeurs sont humains. Les inventions conçues par des machines nécessitent leur propre loi sur la propriété intellectuelle et un traité international. Alexandra George et Toby Walsh, respectivement professeurs de droit et d'IA à l'université de New South Wales en Australie estiment que ne pas reconnaître les machines comme des inventeurs pourrait avoir des répercussions durables sur les économies et les sociétés.
« Si les tribunaux et les gouvernements décident que les inventions créées par l'IA ne peuvent pas être brevetées, les implications pourraient être énormes, ont-ils écrit dans un article publié dans Nature. Les bailleurs de fonds et les entreprises seraient moins incités à poursuivre des recherches utiles en faisant appel à des inventeurs d'IA lorsque le retour sur leur investissement pourrait être limité. La société pourrait passer à côté du développement d'inventions valables et permettant de sauver des vies. »
Le danger est que nous ne savons pas ce qui est inventé et ce qui ne l'est pas. Si Scheutz pose à GPT-3 une question dont il ne connaît pas la réponse, comment peut-il évaluer si la réponse est correcte ? Strasser a déclaré qu'une autre motivation pour leur expérience de Dennett est qu'elle veut que les gens comprennent que ces programmes ne sont pas fiables ; ils ne sont pas comme des calculatrices qui génèrent toujours la même réponse correcte.
« Même si une machine est capable de produire des résultats étonnants, vous devez toujours être prêt à ce que certains de ces résultats - et vous ne savez pas lesquels - soient faux », a-t-elle déclaré. Si l'on ajoute à cela le fait que les résultats générés par les machines peuvent être difficiles à distinguer de ceux d'un humain, on se retrouve face à un problème de confiance, a déclaré Mme Strasser. « Le danger que je vois est que les gens croient aveuglément ce qu'un système comme celui-ci produit », a déclaré Scheutz.
Aujourd'hui, il existe même tout un marché pour les systèmes de langage naturel conçus pour interagir avec les clients d'une manière humaine et crédible. « La question est de savoir si ce système va toujours donner les bons conseils ». a déclaré Scheutz. « Nous n'avons aucune assurance que ce soit le cas ». Schwitzgebel et Strasser ont déclaré qu'ils espèrent que leur expérience révélera comment les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.