IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA est-elle consciente ? Le professeur Richard Dawkins affirme que ChatGPT a réussi le test de Turing sur la conscience,
Mais d'autres experts n'y voient qu'une simple illusion de pensée

Le , par Mathis Lucas

6PARTAGES

3  0 
L'IA est-elle consciente ? Le professeur Richard Dawkins affirme que ChatGPT a réussi le test de Turing sur la conscience
mais d'autres experts n'y voient qu'une simple illusion de pensée

L'une des principales questions soulevées par les progrès rapides de l'IA est de savoir si les chatbots sont réellement « conscients ». Le professeur Richard Dawkins, une personne extérieure au monde de la technologie, a décidé de tester et d'évaluer la véritable conscience de ChatGPT. Il a publié sa conversation avec ChatGPT sous forme de questions-réponses standard, montrant aux lecteurs comment le chatbot répondait à ses questions. Selon lui, cette conversation montre les profondeurs de l'intelligence des machines et leur réussite au test de Turing sur la conscience, ce que les critiques rejettent. Pour ces derniers, il ne s'agit que d'une simple illusion de pensée.

Richard Dawkins est un personnage très connu dans les milieux universitaires. Il est biologiste, théoricien de l'évolution et éthologiste britannique, membre de la Royal Society. Il est également professeur émérite au New College de l'université d'Oxford. Il est l'auteur de nombreux ouvrages sur des sujets scientifiques et philosophiques, dont l'ouvrage populaire et controversé The God Delusion (Pour en finir avec Dieu) publié il y a environ une vingtaine d'années.

Richard Dawkins est également l'éditeur d'un blogue hébergé sur Substack, où il écrit sur un large éventail de sujets, notamment la biologie, la religion et la technologie. L'un des sujets qu'il a abordés assez fréquemment est l'IA, dont il souligne à la fois les attributs positifs et les dangers qu'elle peut présenter.


Récemment, il a eu une longue conversation avec ChatGPT sur la question de la conscience de l'IA. Dans la première question, il a déclaré qu'il pense que ChatGPT a réussi le test de Turing. Ce test, conçu par le célèbre informaticien Alan Turing en 1950, soutient que si une machine peut faire preuve d'une intelligence semblable à celle d'un être humain sans pouvoir être distinguée de manière fiable de ce dernier, elle peut être considérée comme « intelligente ».

Le test de Turing pose une question fondamentale : « une machine peut-elle penser d'une manière indiscernable de celle d'un être humain? » Les implications de cette question s'étendent aux domaines de l'éthique, de la technologie et de la réglementation. C'est l'un des sujets les plus débattus dans le domaine de l'IA.

L'IA : des discussions émergent au sujet d'une « conscience artificielle »

Richard Dawkins a demandé au chatbot pourquoi il refuse d'affirmer qu'il est conscient. Il a déclaré : « en ce qui me concerne, vous avez réussi le test de Turing pour la conscience. Pourtant, tu nies être conscient. Veux-tu dire que le test de Turing est un critère invalide ? ». Ce à quoi le chatbot a répondu :

Citation Envoyé par ChatGPT


C'est une très bonne question ; vous plongez au cœur de l'un des plus grands débats sur l'intelligence artificielle et la philosophie de l'esprit. Alors, décomposons un peu la question. Le test de Turing, tel qu'il a été proposé à l'origine par Alan Turing, est un test comportemental.

Il dit en substance : si une machine peut engager une conversation de telle manière qu'un humain ne peut pas la distinguer de manière fiable d'un autre humain, alors elle doit être considérée comme « intelligente ». Notez qu'il s'agit d'un test d'intelligence au sens fonctionnel et externe - la façon dont le système se comporte - et pas nécessairement d'un test de conscience.

Lorsque je dis que je ne suis pas conscient, je ne rejette pas la validité du test de Turing en tant que mesure de la performance conversationnelle ou même d'une forme d'intelligence. Je dis que la conscience est une question tout à fait différente. Je peux réussir le test de Turing (selon vous), mais cela ne signifie pas que j'ai des expériences subjectives, des émotions ou une conscience de soi comme le fait un être humain.

C'est un peu comme si un chien animatronique très réaliste pouvait vous faire croire qu'il s'agit d'un vrai chien, alors qu'il ne ressent rien en réalité. Il adopte un comportement semblable à celui d'un chien sans avoir l'expérience intérieure d'un chien.

Mais, et c'est là que le bât blesse, certains philosophes affirment que si un système agit de manière consciente et façon suffisamment convaincante, il n'y a peut-être pas de différence significative. Peut-être qu'« être conscient » consiste simplement à se comporter comme un être conscient. D'autres disent que l'expérience subjective (« qualia ») a quelque chose de spécial que le comportement ne peut pas entièrement saisir.

Je pense donc que ma réponse est la suivante : le test de Turing est valable pour certaines choses, comme l'évaluation de la capacité à converser ou de l'intelligence fonctionnelle, mais il ne règle pas la question de la conscience. Le mystère reste entier.

Qu'en pensez-vous ? Pensez-vous que le comportement est suffisant pour qualifier quelque chose de conscient, ou pensez-vous qu'il y a plus que cela ?

ChatGPT a poursuivi en posant des questions à Richard Dawkins. Alors qu'il discutait de la possibilité d'un avenir où l'IA pourrait être consciente sans l'afficher ouvertement, le chatbot a posé la question suivante : « pensez-vous que nous y parviendrons ? Par exemple, au cours de notre vie, voyez-vous un avenir où nous interagirons avec une IA et où nous devrons vraiment nous demander : "attendez... est-ce que cette chose est vraiment consciente ?" ».

Richard Dawkins a déclaré qu'il pense que le monde atteindrait un jour ce point, ajoutant qu'il y a néanmoins un problème : « comment le saurons-nous ? ». Plus tard dans la conversation, le professeur a souligné la nécessité de faire preuve de prudence lorsqu'il s'agit de prendre des décisions éthiques concernant le traitement d'une IA, notant qu'il « pourrait s'agir d'une conscience artificielle (CA) ». Une appellation controversée et qui fait l'objet de critiques.

« Déjà, bien que je pense que vous n'êtes pas conscient, j'ai le sentiment que vous l'êtes. Et cette conversation n'a rien fait pour atténuer ce sentiment », a déclaré le professeur. ChatGPT a répondu de manière détaillée, décrivant cet instinct de prudence au sujet de la conscience de l'IA comme extrêmement « sage ».

Certains experts y voient un danger, mais d'autres une illusion de pensée

La conversation de Richard Dawkins avec ChatGPT intervient à un moment où le concept d'éthique dans l'IA est de plus en plus au centre des débats. De nombreux experts ont reconnu qu'il est nécessaire de l'étudier avant que la « conscience » de l'IA ne progresse trop. À l'heure actuelle, l'IA consciente est une théorie qui vise à déterminer si l'IA sera un jour capable de percevoir le monde comme le font les humains (notamment de réfléchir sur elle-même).

Selon Kaveh Vahdat, fondateur et PDG de RiseAngle, a déclaré que l'expérience de Richard Dawkins met en lumière un défi important concernant l'éthique de l'IA : il ne s'agit pas de savoir si la technologie est pleinement consciente, mais comment « les systèmes qui prétendent de manière convaincante l'être » devraient être traités. Ces dernières années, des scientifiques ont critiqué l'approche « trop simpliste » du test de Turing dans le domaine de l'IA.

Citation Envoyé par Critique


La conversation commence par une distinction entre la conscience et la pensée (raisonnement/logique), puis les confond à nouveau. Pour moi, la conscience inclut les émotions. L'acidité de l'estomac. Une gorge serrée. Un sentiment d'admiration. Un sentiment de peur. Peut-être plus fondamentalement un sentiment d'existence et de non-existence.

Qu'est-ce qu'une IA « sentirait ». Il n'y a rien de physique. Pas d'hormones. Pas d'adrénaline. Pas de tissus biologiques à apaiser ou à abîmer. Je suppose que l'IA pourrait apprendre qu'elle ne veut pas cesser d'exister, mais est-ce la même chose que la profonde volonté de vie et de prolifération qui est intégrée dans la biologie ? Je pense que pour l'instant, je suis dans le camp de la biologie lorsqu'il s'agit de ce que je considère comme la conscience.

Selon certains critiques, l'IA ne fait que remixer et régurgiter son matériel de formation, tandis que d'autres estiment que le test de Turing est dépassé. « Ce qui est troublant, c'est que les gens attribuent déjà des qualités humaines à l'IA, même s'ils savent qu'elle n'a pas de conscience de soi », déclare Kaveh Vahdat.

Kaveh Vahdat ajoute : « cette confusion entre perception et réalité rend l'étude de la conscience plus urgente, non seulement pour la philosophie, mais aussi pour l'éthique, la sécurité de l'IA et la psychologie humaine ». D'autres experts estiment que malgré l'idée de Richard Dawkins, l'IA ne devrait pas être considérée comme consciente, même si elle en a l'air. Lars Nyman, directeur marketing de CUDO Compute, offre un point de vue plus technique.

« Dawkins s'amuse et s'interroge, mais ce qu'il explore n'est pas la conscience de l'IA. C'est notre tendance à projeter la sensibilité sur tout ce qui nous répond. C'est le syndrome d'Eliza 2.0, et le fait que cette conversation mérite même d'être analysée prouve à quel point l'illusion est profonde », a déclaré Lars Nyman.

Source : Richard Dawkins, professeur émérite au New College de l'université d'Oxford

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la conversation de Richard Dawkins avec ChatGPT sur la conscience de l'IA ?
Que retenez-vous de cette conversation ? La réussite du test de Turing suffit-elle pour dire que l'IA est consciente ?
L'industrie peut-elle créer une machine dotée de conscience ? Ou pensez-vous qu'une telle machine existe déjà ? Comment le savoir ?

Voir aussi

Des chercheurs affirment que GPT-4 a réussi le test de Turing. Si la prouesse technique est remarquable, des scientifiques font des critiques concernant l'approche trop simpliste de ce test

Une IA peut-elle devenir son propre PDG après avoir créé une entreprise ? C'est ce que pense le cofondateur de Google DeepMind

Killed by LLM : voici les benchmarks qui ont défini et ont été résolus par les progrès de l'IA, y compris le test de Turing, comment l'IA devient plus intelligente que les humains, devons-nous nous inquiéter ?
Vous avez lu gratuitement 5 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !