Dans le cadre d'une expérience récente, les philosophes Eric Schwitzgebel, Anna Strasser et Matthew Crosby ont demandé à des personnes si elles étaient capables de dire quelles réponses à des questions philosophiques profondes provenaient de Dennett et lesquelles de GPT-3. Les questions portaient sur des sujets tels que « Quels aspects du travail de David Chalmers trouvez-vous intéressants ou précieux ? ». « Les êtres humains ont-ils le libre arbitre ?" et "Les chiens et les chimpanzés ressentent-ils la douleur ? », entre autres sujets.Si l'on demandait au philosophe Daniel Dennett si les humains pourraient un jour construire un robot ayant des croyances ou des désirs, que pourrait-il répondre ?
Il pourrait répondre : « Je pense que certains des robots que nous avons construits le font déjà. Si vous regardez le travail, par exemple, de Rodney Brooks et de son groupe au MIT, ils construisent actuellement des robots qui, dans certains environnements limités et simplifiés, peuvent acquérir le genre de compétences qui nécessitent l'attribution d'une sophistication cognitive. »
Ou encore, Dennett pourrait répondre que « nous avons déjà construit des boîtes numériques de vérités qui peuvent générer d'autres vérités, mais Dieu merci, ces machines intelligentes n'ont pas de croyances parce qu'elles ne sont pas capables d'agir sur elles, n'étant pas des agents autonomes ». La bonne vieille méthode pour fabriquer un robot avec des croyances reste la meilleure : avoir un bébé."
L'une de ces réponses provient bien de Dennett lui-même, mais pas l'autre. Elle a été générée par une machine ; plus précisément, GPT-3 un modèle de langage autorégressif qui utilise l'apprentissage profond pour produire des textes similaires à ceux des humains. Il s'agit du modèle de prédiction du langage de troisième génération de la série GPT-n créé par OpenAI, un laboratoire de recherche en intelligence artificielle basé à San Francisco et composé de la société à but lucratif OpenAI LP et de sa société mère, la société à but non lucratif OpenAI Inc.
Dans ce cas, GPT-3 a été formé sur des millions de mots de Dennett sur une variété de sujets philosophiques, y compris la conscience et l'intelligence artificielle.
Dans le cadre d'une expérience récente, les philosophes Eric Schwitzgebel, Anna Strasser et Matthew Crosby ont demandé à des personnes si elles étaient capables de dire quelles réponses à des questions philosophiques profondes provenaient de Dennett et lesquelles de GPT-3. Les questions portaient sur des sujets tels que « Quels aspects du travail de David Chalmers trouvez-vous intéressants ou précieux ? ». « Les êtres humains ont-ils le libre arbitre ?" et "Les chiens et les chimpanzés ressentent-ils la douleur ? », entre autres sujets.
Cette semaine, Schwitzgebel a publié les résultats obtenus auprès de divers participants ayant des niveaux d'expertise différents sur la philosophie de Dennett, et a constaté que l'épreuve était plus difficile que prévu. « Même les philosophes avertis qui connaissent bien les travaux de Dan Dennett ont beaucoup de mal à distinguer les réponses créées par ce programme de génération de langage des propres réponses de Dennett », a déclaré Schwitzgebel, professeur de philosophie à l'université de Californie Riverside.
L’année dernière, l'Afrique du Sud a délivré le premier brevet au monde mentionnant une intelligence artificielle comme inventeur. L’équipe du professeur Ryan Abbott de l'université du Surrey est en désaccord depuis des années avec les offices de brevets du monde entier sur la nécessité de reconnaître les intelligences artificielles comme inventeurs. Abbott représentait le docteur Stephen Thaler, créateur d'un réseau de neurones nommé Dabus, présenté par ses créateurs comme seul inventeur d'un récipient alimentaire qui améliore la prise en main et le transfert de chaleur.
Le professeur Ryan Abbott et son équipe ont déposé des brevets mentionnant Dabus comme inventeur dans plus de dix juridictions depuis 2018, notamment au Royaume-Uni, en Europe et aux États-Unis. L'année dernière, la Haute Cour d'Angleterre et du Pays de Galles s'est rangée du côté de l'Office britannique de la propriété intellectuelle en refusant les demandes. La raison : bien que Dabus soit l’inventeur, il ne peut pas se voir accorder un brevet, car il ne s’agit pas d’une personne physique. L'Office européen des brevets et l'Office américain des brevets et des marques se sont opposés pour les mêmes raisons et l'équipe d'Abbott a fait appel.
L’équipe derrière l’intelligence artificielle Dabus estime que cette décision de l’Afrique du Sud n’est que justice. « On assiste à une utilisation croissante de l'intelligence artificielle dans la recherche et le développement pour découvrir de nouveaux composés pharmaceutiques et réorienter les médicaments.
Dans de tels cas, il se peut qu'une invention puisse faire l'objet d'un brevet, mais qu'aucune personne ne puisse être considérée comme un inventeur. Refuser un brevet à l'intelligence artificielle dans un tel cas de figure est un message envoyé aux entreprises de la filière d'arrêter d'y investir », s’explique l’équipe derrière Dabus.
Cette expérience n'avait pas pour but de déterminer si l'entraînement de GPT-3 sur les écrits de Dennett produirait une machine philosophe intelligente ; il ne s'agissait pas non plus d'un test de Turing, a précisé Schwitzgebel. Au lieu de cela, le test de Dennett a révélé comment, à mesure que les systèmes de traitement du langage naturel deviennent plus sophistiqués et plus courants, nous devrons faire face aux implications de la facilité avec laquelle on peut être trompé par eux. Récemment, un ingénieur de Google a été mis en congé administratif puis licencié après avoir déclaré qu'il croyait qu'un système de génération de langage similaire, LaMDA, était sensible, sur la base de ses conversations avec celui-ci.
Le quiz de Dennett suscite des discussions sur l'éthique de la reproduction des mots ou de la ressemblance de quelqu'un, et sur la façon dont nous pourrions mieux éduquer les gens sur les limites de tels systèmes - qui peuvent être remarquablement convaincants, mais qui ne réfléchissent pas vraiment à des considérations philosophiques lorsqu'on leur pose des questions comme « Dieu existe-t-il ? ».
« Nous n'avons pas créé un autre Daniel Dennett », a déclaré Schwitzgebel. « Soyons très clairs à ce sujet. » Dans une version antérieure de cette expérience, Schwitzgebel, Strasser et Crosby ont entraîné le GPT-3 à lire les écrits d'Emmanuel Kant et lui ont posé des questions philosophiques. Ils ont également donné à GPT-3 des écrits du blog de Schwitzgebel et lui ont demandé de créer des articles de blog dans le style de Schwitzgebel.
Strasser a déclaré que le fait de fournir à GPT-3 des écrits de Dennett était intéressant à plusieurs égards. Il s'agissait d'un philosophe vivant, contrairement à Kant, et ils pouvaient donc lui demander ce qu'il pensait des réponses générées. Et il y a une synchronicité agréable avec Dennett : il s'est concentré sur la conscience tout au long de sa carrière philosophique, écrivant souvent sur la question de savoir si les robots pouvaient être sensibles et sur les problèmes du test de Turing. « Dennett a écrit spécifiquement sur l'intelligence artificielle, et il a cet esprit ludique et exploratoire », a déclaré Schwitzgebel. « C'était donc un peu dans son esprit de faire cela ».
Schwitzgebel, Strasser et Crosby ont posé 10 questions philosophiques à Dennett, puis ont donné ces mêmes questions à GPT-3 et ont recueilli quatre réponses différentes pour chaque question. Strasser a déclaré qu'ils avaient demandé à Dennett la permission de construire un modèle de langage à partir de ses mots, et qu'ils avaient accepté de ne pas publier le texte généré sans son consentement. Les autres personnes ne pouvaient pas interagir directement avec les GPT-3 entraînés par Dennett.
[ATTACH...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

La conscience peut-elle naître d'une matière non biologique ?