IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Dans une expérience, l'IA réussit à se faire passer pour un célèbre philosophe,
L'IA peut être consciente ou mériter un jour un statut moral ?

Le , par Bruno

10PARTAGES

10  0 
Dans le cadre d'une expérience récente, les philosophes Eric Schwitzgebel, Anna Strasser et Matthew Crosby ont demandé à des personnes si elles étaient capables de dire quelles réponses à des questions philosophiques profondes provenaient de Dennett et lesquelles de GPT-3. Les questions portaient sur des sujets tels que « Quels aspects du travail de David Chalmers trouvez-vous intéressants ou précieux ? ». « Les êtres humains ont-ils le libre arbitre ?" et "Les chiens et les chimpanzés ressentent-ils la douleur ? », entre autres sujets.

Si l'on demandait au philosophe Daniel Dennett si les humains pourraient un jour construire un robot ayant des croyances ou des désirs, que pourrait-il répondre ?

Il pourrait répondre : « Je pense que certains des robots que nous avons construits le font déjà. Si vous regardez le travail, par exemple, de Rodney Brooks et de son groupe au MIT, ils construisent actuellement des robots qui, dans certains environnements limités et simplifiés, peuvent acquérir le genre de compétences qui nécessitent l'attribution d'une sophistication cognitive. »

Ou encore, Dennett pourrait répondre que « nous avons déjà construit des boîtes numériques de vérités qui peuvent générer d'autres vérités, mais Dieu merci, ces machines intelligentes n'ont pas de croyances parce qu'elles ne sont pas capables d'agir sur elles, n'étant pas des agents autonomes ». La bonne vieille méthode pour fabriquer un robot avec des croyances reste la meilleure : avoir un bébé."


L'une de ces réponses provient bien de Dennett lui-même, mais pas l'autre. Elle a été générée par une machine ; plus précisément, GPT-3 un modèle de langage autorégressif qui utilise l'apprentissage profond pour produire des textes similaires à ceux des humains. Il s'agit du modèle de prédiction du langage de troisième génération de la série GPT-n créé par OpenAI, un laboratoire de recherche en intelligence artificielle basé à San Francisco et composé de la société à but lucratif OpenAI LP et de sa société mère, la société à but non lucratif OpenAI Inc.

Dans ce cas, GPT-3 a été formé sur des millions de mots de Dennett sur une variété de sujets philosophiques, y compris la conscience et l'intelligence artificielle.

Dans le cadre d'une expérience récente, les philosophes Eric Schwitzgebel, Anna Strasser et Matthew Crosby ont demandé à des personnes si elles étaient capables de dire quelles réponses à des questions philosophiques profondes provenaient de Dennett et lesquelles de GPT-3. Les questions portaient sur des sujets tels que « Quels aspects du travail de David Chalmers trouvez-vous intéressants ou précieux ? ». « Les êtres humains ont-ils le libre arbitre ?" et "Les chiens et les chimpanzés ressentent-ils la douleur ? », entre autres sujets.

Cette semaine, Schwitzgebel a publié les résultats obtenus auprès de divers participants ayant des niveaux d'expertise différents sur la philosophie de Dennett, et a constaté que l'épreuve était plus difficile que prévu. « Même les philosophes avertis qui connaissent bien les travaux de Dan Dennett ont beaucoup de mal à distinguer les réponses créées par ce programme de génération de langage des propres réponses de Dennett », a déclaré Schwitzgebel, professeur de philosophie à l'université de Californie Riverside.

L’année dernière, l'Afrique du Sud a délivré le premier brevet au monde mentionnant une intelligence artificielle comme inventeur. L’équipe du professeur Ryan Abbott de l'université du Surrey est en désaccord depuis des années avec les offices de brevets du monde entier sur la nécessité de reconnaître les intelligences artificielles comme inventeurs. Abbott représentait le docteur Stephen Thaler, créateur d'un réseau de neurones nommé Dabus, présenté par ses créateurs comme seul inventeur d'un récipient alimentaire qui améliore la prise en main et le transfert de chaleur.

Le professeur Ryan Abbott et son équipe ont déposé des brevets mentionnant Dabus comme inventeur dans plus de dix juridictions depuis 2018, notamment au Royaume-Uni, en Europe et aux États-Unis. L'année dernière, la Haute Cour d'Angleterre et du Pays de Galles s'est rangée du côté de l'Office britannique de la propriété intellectuelle en refusant les demandes. La raison : bien que Dabus soit l’inventeur, il ne peut pas se voir accorder un brevet, car il ne s’agit pas d’une personne physique. L'Office européen des brevets et l'Office américain des brevets et des marques se sont opposés pour les mêmes raisons et l'équipe d'Abbott a fait appel.

L’équipe derrière l’intelligence artificielle Dabus estime que cette décision de l’Afrique du Sud n’est que justice. « On assiste à une utilisation croissante de l'intelligence artificielle dans la recherche et le développement pour découvrir de nouveaux composés pharmaceutiques et réorienter les médicaments.

Dans de tels cas, il se peut qu'une invention puisse faire l'objet d'un brevet, mais qu'aucune personne ne puisse être considérée comme un inventeur. Refuser un brevet à l'intelligence artificielle dans un tel cas de figure est un message envoyé aux entreprises de la filière d'arrêter d'y investir », s’explique l’équipe derrière Dabus.

Cette expérience n'avait pas pour but de déterminer si l'entraînement de GPT-3 sur les écrits de Dennett produirait une machine philosophe intelligente ; il ne s'agissait pas non plus d'un test de Turing, a précisé Schwitzgebel. Au lieu de cela, le test de Dennett a révélé comment, à mesure que les systèmes de traitement du langage naturel deviennent plus sophistiqués et plus courants, nous devrons faire face aux implications de la facilité avec laquelle on peut être trompé par eux. Récemment, un ingénieur de Google a été mis en congé administratif puis licencié après avoir déclaré qu'il croyait qu'un système de génération de langage similaire, LaMDA, était sensible, sur la base de ses conversations avec celui-ci.

Le quiz de Dennett suscite des discussions sur l'éthique de la reproduction des mots ou de la ressemblance de quelqu'un, et sur la façon dont nous pourrions mieux éduquer les gens sur les limites de tels systèmes - qui peuvent être remarquablement convaincants, mais qui ne réfléchissent pas vraiment à des considérations philosophiques lorsqu'on leur pose des questions comme « Dieu existe-t-il ? ».

« Nous n'avons pas créé un autre Daniel Dennett », a déclaré Schwitzgebel. « Soyons très clairs à ce sujet. » Dans une version antérieure de cette expérience, Schwitzgebel, Strasser et Crosby ont entraîné le GPT-3 à lire les écrits d'Emmanuel Kant et lui ont posé des questions philosophiques. Ils ont également donné à GPT-3 des écrits du blog de Schwitzgebel et lui ont demandé de créer des articles de blog dans le style de Schwitzgebel.

Strasser a déclaré que le fait de fournir à GPT-3 des écrits de Dennett était intéressant à plusieurs égards. Il s'agissait d'un philosophe vivant, contrairement à Kant, et ils pouvaient donc lui demander ce qu'il pensait des réponses générées. Et il y a une synchronicité agréable avec Dennett : il s'est concentré sur la conscience tout au long de sa carrière philosophique, écrivant souvent sur la question de savoir si les robots pouvaient être sensibles et sur les problèmes du test de Turing. « Dennett a écrit spécifiquement sur l'intelligence artificielle, et il a cet esprit ludique et exploratoire », a déclaré Schwitzgebel. « C'était donc un peu dans son esprit de faire cela ».

Schwitzgebel, Strasser et Crosby ont posé 10 questions philosophiques à Dennett, puis ont donné ces mêmes questions à GPT-3 et ont recueilli quatre réponses différentes pour chaque question. Strasser a déclaré qu'ils avaient demandé à Dennett la permission de construire un modèle de langage à partir de ses mots, et qu'ils avaient accepté de ne pas publier le texte généré sans son consentement. Les autres personnes ne pouvaient pas interagir directement avec les GPT-3 entraînés par Dennett.


« Je dirais que c'est contraire à l'éthique si je construis une réplique de vous sans vous demander votre avis », a déclaré Strasser, chercheur associé à l'université Ludwig-Maximilian de Munich. Les modèles linguistiques tels que GPT-3 sont conçus pour imiter les modèles du matériel sur lequel ils sont formés, explique Emily Bender, professeur de linguistique à l'université de Washington, qui étudie les technologies d'apprentissage automatique. « Il n'est donc pas surprenant que GPT-3, ajusté sur l'écriture de Dennett, puisse produire plus de texte qui ressemble à Dennett », a-t-elle déclaré.

Lorsqu'on lui a demandé ce qu'il pensait des réponses de GPT-3, Dennett a répondu : « La plupart des réponses de la machine étaient plutôt bonnes, mais quelques-unes étaient absurdes ou ne parvenaient manifestement pas à comprendre quoi que ce soit de mes opinions et arguments. Quelques-unes des meilleures réponses de la machine disent quelque chose à quoi je souscrirais sans plus attendre. »

Mais Bender ajoute que, bien sûr, ce n'est pas que GPT-3 a appris à « avoir des idées » comme celles de Dennett. « Le texte n'a pas du tout de sens pour GPT-3, seulement pour les personnes qui le lisent », a-t-elle ajouté.

C'est là que des réponses aussi convaincantes pourraient nous attirer des ennuis. Lorsqu'on lit un texte qui semble réaliste ou qui traite de sujets profonds et significatifs pour nous, il peut être difficile, comme des générations d'auteurs de science-fiction l'ont mis en garde, d'éviter de projeter des émotions ou des idées sur quelque chose qui n'a pas ces qualités.

Si LaMDA en est l'exemple le plus récent, l'effet ELIZA, qui tire son nom d'un chatbot de 1966 mis au point par Joseph Weizenbaum, décrit comment les gens peuvent être facilement influencés par un langage généré par une machine et y projeter des sentiments. « Je n'avais pas réalisé [...] que des expositions extrêmement courtes à un programme informatique relativement simple pouvaient induire des pensées délirantes puissantes chez des personnes tout à fait normales », écrivait Weizenbaum en 1976.

Une partie du problème pourrait résulter de la façon dont nous avons conceptualisé l'évaluation de la sensibilité des machines. Le test de Turing, par exemple, postule que si vous pouvez fabriquer une machine capable de créer une sortie linguistique qui peut tromper les gens en leur faisant croire qu'ils interagissent avec une personne réelle, alors cette machine "pense" d'une certaine manière.

Comme Dennett l'a écrit dans le passé, cela a créé une tendance pour les gens à se concentrer sur la création de chatbots qui peuvent tromper les gens dans de brèves interactions, puis à exagérer ou à accorder trop d'importance à ce que signifie cette interaction.

Peut-être que l'idée brillante de Turing d'un test opérationnel nous a attirés dans un piège : la quête pour créer au moins l'illusion d'une personne réelle derrière l'écran, en comblant la « vallée de l'inquiétude », écrit Dennett. « Le danger, ici, est que depuis que Turing a posé son défi, qui était, après tout, un défi pour tromper les juges, les créateurs d'IA ont tenté de recouvrir la vallée avec des touches humanoïdes mignonnes, des effets de Disneyfication qui enchanteront et désarmeront les non-initiés. »


Dans un article publié en 2021 et intitulé Stochastic Parrots, Bender et ses collègues ont qualifié les tentatives d'imitation du comportement humain de « ligne de démarcation dans le développement éthique de l'IA ».

« Cela est vrai tant pour la création de machines qui semblent humaines en général que pour la création de machines qui imitent des personnes spécifiques, en raison des dommages potentiels pour les autres humains qui pourraient être trompés en pensant qu'ils reçoivent des informations d'une personne et en raison des dommages potentiels pour les personnes dont on usurpe l'identité », a déclaré Bender.

Schwitzgebel a souligné que cette expérience n'était pas un test de Turing, mais qu'une meilleure façon d'en réaliser un, si on devait le faire, serait de demander à une personne connaissant le fonctionnement des chatbots de discuter longuement avec eux. De cette façon, la personne connaît des programmes comme GPT-3 et pourra mieux en déceler les faiblesses.

Selon Matthias Scheutz, professeur d'informatique à l'université Tufts, il est facile de démontrer que GPT-3 est défectueux dans de nombreux contextes. Dans une expérience, Scheutz et ses collègues ont demandé à GPT-3 d'expliquer pourquoi une personne avait fait un choix dans une situation banale, comme s'asseoir sur le siège avant ou le siège arrière d'une voiture.

Par exemple, où une personne s'assiérait-elle dans un taxi ou dans la voiture d'un ami ? La convention sociale voudrait que l'on s'assoie à l'avant de la voiture de son ami, mais à l'arrière du taxi. La TPG-3 ne le sait pas, mais elle peut néanmoins fournir des explications sur le choix du siège, par exemple en disant que cela dépend de la taille de la personne.

Cela est dû au fait que GPT-3 n'a pas de modèle du monde, a expliqué Scheutz. « Il n'a pas de modèle de philosophie ou de théories philosophiques, ni rien de tout cela, il s'agit de statistiques linguistiques », explique-t-il. « Si vous les transférez dans des domaines où le système ne dispose pas de statistiques, il inventera des choses ».

Les gouvernements du monde entier devraient adopter des lois sur la propriété intellectuelle qui accordent des droits aux systèmes d'IA, selon deux universitaires de l'université de Nouvelle-Galles du Sud en Australie. Le système des brevets part du principe que les inventeurs sont humains. Les inventions conçues par des machines nécessitent leur propre loi sur la propriété intellectuelle et un traité international. Alexandra George et Toby Walsh, respectivement professeurs de droit et d'IA à l'université de New South Wales en Australie estiment que ne pas reconnaître les machines comme des inventeurs pourrait avoir des répercussions durables sur les économies et les sociétés.

« Si les tribunaux et les gouvernements décident que les inventions créées par l'IA ne peuvent pas être brevetées, les implications pourraient être énormes, ont-ils écrit dans un article publié dans Nature. Les bailleurs de fonds et les entreprises seraient moins incités à poursuivre des recherches utiles en faisant appel à des inventeurs d'IA lorsque le retour sur leur investissement pourrait être limité. La société pourrait passer à côté du développement d'inventions valables et permettant de sauver des vies. »

Le danger est que nous ne savons pas ce qui est inventé et ce qui ne l'est pas. Si Scheutz pose à GPT-3 une question dont il ne connaît pas la réponse, comment peut-il évaluer si la réponse est correcte ? Strasser a déclaré qu'une autre motivation pour leur expérience de Dennett est qu'elle veut que les gens comprennent que ces programmes ne sont pas fiables ; ils ne sont pas comme des calculatrices qui génèrent toujours la même réponse correcte.

« Même si une machine est capable de produire des résultats étonnants, vous devez toujours être prêt à ce que certains de ces résultats - et vous ne savez pas lesquels - soient faux », a-t-elle déclaré. Si l'on ajoute à cela le fait que les résultats générés par les machines peuvent être difficiles à distinguer de ceux d'un humain, on se retrouve face à un problème de confiance, a déclaré Mme Strasser. « Le danger que je vois est que les gens croient aveuglément ce qu'un système comme celui-ci produit », a déclaré Scheutz.

Aujourd'hui, il existe même tout un marché pour les systèmes de langage naturel conçus pour interagir avec les clients d'une manière humaine et crédible. « La question est de savoir si ce système va toujours donner les bons conseils ». a déclaré Scheutz. « Nous n'avons aucune assurance que ce soit le cas ». Schwitzgebel et Strasser ont déclaré qu'ils espèrent que leur expérience révélera comment les programmes de traitement du langage peuvent créer des textes qui peuvent être convaincants même pour les experts, et que nous devrions nous préparer à cela.

« Cela montre surtout qu'il y a davantage de sources d'erreurs d'orientation, de "révélations" et de façons dont nos efforts involontaires pour donner un sens à tout ce qui semble à peu près interprétable peuvent nous trahir », a déclaré Dennett. « Je pense que nous avons besoin d'une législation pour rendre illégales certaines des façons dont ces systèmes pourraient être utilisés. »

Il est possible que dans les prochaines décennies, les gens réagissent aux intelligences artificielles comme des amis, ou tombent amoureux d'elles, et décident que les machines méritent des droits et des considérations morales - comme ne pas éteindre une machine ou supprimer un programme sans qu'elle en donne la permission explicite. D'autres ne partageront pas ce point de vue. « Ce grand débat porte sur le moment où nous aurons franchi cette limite pour créer des systèmes d'IA qui méritent une considération morale, qui méritent d'être traités comme des partenaires, des amis ou des êtres dotés de droits », a déclaré Schwitzgebel.

« Je pense qu'il est très probable que, dans les prochaines décennies, certaines personnes traiteront certains assistants d'IA comme s'ils étaient conscients et avaient des droits. Dans le même temps, d'autres personnes seront très légitimement très sceptiques quant au fait que les systèmes d'IA en question aient tout ce qu'il faut pour mériter réellement des droits. »

Le quiz de Daniel Dennett ne peut pas répondre à la question de savoir si l'IA peut être consciente ou mériter un jour un statut moral mais, il peut contribuer à nous y amener. « Plus on peut penser à différents types de systèmes lorsqu'on réfléchit à la conscience, plus on peut l'aborder sous différents angles, ce qui nous aide à comprendre les questions les plus générales », a déclaré Schwitzgebel. En s'aventurant sur ce terrain philosophique, cela peut aussi être un moyen de se confronter à des questions philosophiques sur la conscience humaine.

Source : Denkwerkstatt

Et vous ?

Quel est votre avis sur le sujet ?

Selon vous, une machine peut-elle penser comme un philosophe ?

L'IA peut être consciente ou mériter un jour un statut moral ?

La conscience peut-elle naître d'une matière non biologique ?

Voir aussi :

Microsoft et OpenAI pourraient rendre la formation de grands réseaux neuronaux moins coûteuse, le coût du réglage à l'aide de µTransfer représente 7 % de ce qu'il en coûterait pour préformer GPT-3

« L'intelligence artificielle va surpasser l'humain dans 5 ans », d'après Elon Musk, qui indique comment sa société Neuralink qui conçoit des ordinateurs à implanter dans le cerveau va nous sauver

L'IA devrait être reconnue comme un inventeur dans le droit des brevets, selon des experts

L'Afrique du Sud délivre le premier brevet au monde mentionnant une intelligence artificielle comme inventeur : quels bénéfices pour les entreprises de la filière ? Quels dangers ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 30/07/2022 à 19:34
Je me suis amusé à faire un exemple "simple", où on imagine une IA qui cherche à reproduire une écriture manuscrite. On lui donne des lettres écrites à la main qu'elle doit reproduire, et on lui fait passer des tests qui lui disent si elle écrit correctement ou pas, et elle apprend à bien écrire comme ça. À la fin, quand on lui demande d'écrire un "a", elle te sort ça :


Et là tout le monde s'écrit "Trop fort, elle comprend ce qu'on lui demande !".

Sauf qu'en fait non, on lui a juste donné un modèle général de fonctions à produire (une fonction fx pour les mouvements sur les x, et une fy pour les mouvements sur y), des données d'entraînement sur lesquelles s'appuyer et des tests qui lui disent si ce qu'elle produit colle plus ou moins. On l'a faite évoluer pour améliorer ses résultats, et à la fin, la seule chose que la machine a pondu, c'est que les meilleures fonctions pour passer les tests, peu importe le sens de ces tests, ce sont ces fonctions là :


Ça définit le mouvement sur chaque axe et la longueur du tracé (t entre 0 et 2.2). Aucune idée de ce que représente ce dessin, mais ça permet de produire l'image au-dessus qui passe les tests, donc on le garde.

Ce que la machine "connaît" c'est les fonctions, et elle les a gardé parce que ça donne le meilleur résultat aux tests. Quand on l'exécute elle nous sort l'image, et c'est nous qui interprétons ça comme un "a". La machine n'a jamais eu besoin de savoir ce qu'était une lettre ou un "a" pour le dessiner. Elle a juste été entraînée pour pondre des dessins qui passent des tests prédéfinis, peu importe ce que vérifient ces tests.

Pour ceux qui veulent jouer avec mon exemple :
https://www.desmos.com/calculator/wycxzg4xon
Avec les explications des calculs :
https://www.desmos.com/calculator/seq1ro3feu

C'est pareil pour GPT-n et le langage : on lui demande de respecter un modèle général prédéfini, on lui donne de quoi s'entraîner pour identifier les paramètres du modèle qui donnent les meilleurs scores, peu importe comment ces scores sont calculés (ici reproduire du texte en langage naturel), et on produit la boîte noire qui connaît les fonctions qui maximisent ces scores. Peu importe ce que ça génère derrière, tant que ça passe les tests. On met en avant les cas où ça marche le mieux et hop, un bon buzz "ma machine a une conscience".
2  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 31/07/2022 à 19:04
Citation Envoyé par Matthieu Vergne Voir le message
(...)
ça ressemble à une objection du type chambre chinoise. pour le moins j'aurai tendance à penser que "apprendre à écrire" et "comprendre ce qu'on écrit" sont deux fonctions cérébrales distinctes ; il n'est pas nécessaire de comprendre qu'on fait un "a" pour apprendre à le dessiner.

mais de fait l'article évoque le test de Turing qui -avis perso là encore- me semble plus très pertinent eu égard à l'état de nos connaissances modernes en neurosciences, philosophie et psychologie : un test de Turing permet au mieux de tester la fonction langagière d'une IA, pas sa conscience.
1  0 
Avatar de Mat.M
Expert éminent sénior https://www.developpez.com
Le 01/08/2022 à 14:12
Citation Envoyé par Bruno Voir le message

Selon vous, une machine peut-elle penser comme un philosophe ?
le métier d'un philosophe est de nous parler de philosophie.
Or pour qu'une machine puisse concevoir des lois philosophiques bref des concepts, il faudrait définir ce qu'est la philosophie.
On va me dire qu'étymologiquement ça signifie "amour de la sagesse".What else ?
Citation Envoyé par Bruno Voir le message

La conscience peut-elle naître d'une matière non biologique ?
ça ressemble furieusement à la querelle entre les créationnismes qui pensent que la matière est substantiellement théologique et un savant comme Richard Dawkins qui pense que la matière est la combinaison astucieuse de séquences d'ADN
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 28/07/2022 à 7:25
En gros on a formé une IA à imiter Dennet et elle a réussi à le faire sur des sujets sur lesquels il s'est déjà exprimé.
Boarf.
Il n'existe aucun débat tant qu'on ne reproduit pas l'expérience sur un sujet sur lequel il ne s'est pas encore exprimé, ou à un niveau plus abouti de la réflexion.

« Quels aspects du travail de David Chalmers trouvez-vous intéressants ou précieux ? », « Les êtres humains ont-ils le libre arbitre ?" et "Les chiens et les chimpanzés ressentent-ils la douleur ? » ressemblent à des sujets de BAC.
0  0