IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA est-elle consciente ? Le professeur Richard Dawkins affirme que ChatGPT a réussi le test de Turing sur la conscience,
Mais d'autres experts n'y voient qu'une simple illusion de pensée

Le , par Mathis Lucas

40PARTAGES

4  0 
L'une des principales questions soulevées par les progrès rapides de l'IA est de savoir si les chatbots sont réellement « conscients ». Le professeur Richard Dawkins, une personne extérieure au monde de la technologie, a décidé de tester et d'évaluer la véritable conscience de ChatGPT. Il a publié sa conversation avec ChatGPT sous forme de questions-réponses standard, montrant aux lecteurs comment le chatbot répondait à ses questions. Selon lui, cette conversation montre les profondeurs de l'intelligence des machines et leur réussite au test de Turing sur la conscience, ce que les critiques rejettent. Pour ces derniers, il ne s'agit que d'une simple illusion de pensée.

Richard Dawkins est un personnage très connu dans les milieux universitaires. Il est biologiste, théoricien de l'évolution et éthologiste britannique, membre de la Royal Society. Il est également professeur émérite au New College de l'université d'Oxford. Il est l'auteur de nombreux ouvrages sur des sujets scientifiques et philosophiques, dont l'ouvrage populaire et controversé The God Delusion (Pour en finir avec Dieu) publié il y a environ une vingtaine d'années.

Richard Dawkins est également l'éditeur d'un blogue hébergé sur Substack, où il écrit sur un large éventail de sujets, notamment la biologie, la religion et la technologie. L'un des sujets qu'il a abordés assez fréquemment est l'IA, dont il souligne à la fois les attributs positifs et les dangers qu'elle peut présenter.

https://youtu.be/uf6zZfLat-8

Récemment, il a eu une longue conversation avec ChatGPT sur la question de la conscience de l'IA. Dans la première question, il a déclaré qu'il pense que ChatGPT a réussi le test de Turing. Ce test, conçu par le célèbre informaticien Alan Turing en 1950, soutient que si une machine peut faire preuve d'une intelligence semblable à celle d'un être humain sans pouvoir être distinguée de manière fiable de ce dernier, elle peut être considérée comme « intelligente ».

Le test de Turing pose une question fondamentale : « une machine peut-elle penser d'une manière indiscernable de celle d'un être humain? » Les implications de cette question s'étendent aux domaines de l'éthique, de la technologie et de la réglementation. C'est l'un des sujets les plus débattus dans le domaine de l'IA.

L'IA : des discussions émergent au sujet d'une « conscience artificielle »

Richard Dawkins a demandé au chatbot pourquoi il refuse d'affirmer qu'il est conscient. Il a déclaré : « en ce qui me concerne, vous avez réussi le test de Turing pour la conscience. Pourtant, tu nies être conscient. Veux-tu dire que le test de Turing est un critère invalide ? ». Ce à quoi le chatbot a répondu :

Citation Envoyé par ChatGPT

C'est une très bonne question ; vous plongez au cœur de l'un des plus grands débats sur l'intelligence artificielle et la philosophie de l'esprit. Alors, décomposons un peu la question. Le test de Turing, tel qu'il a été proposé à l'origine par Alan Turing, est un test comportemental.

Il dit en substance : si une machine peut engager une conversation de telle manière qu'un humain ne peut pas la distinguer de manière fiable d'un autre humain, alors elle doit être considérée comme « intelligente ». Notez qu'il s'agit d'un test d'intelligence au sens fonctionnel et externe - la façon dont le système se comporte - et pas nécessairement d'un test de conscience.

Lorsque je dis que je ne suis pas conscient, je ne rejette pas la validité du test de Turing en tant que mesure de la performance conversationnelle ou même d'une forme d'intelligence. Je dis que la conscience est une question tout à fait différente. Je peux réussir le test de Turing (selon vous), mais cela ne signifie pas que j'ai des expériences subjectives, des émotions ou une conscience de soi comme le fait un être humain.

C'est un peu comme si un chien animatronique très réaliste pouvait vous faire croire qu'il s'agit d'un vrai chien, alors qu'il ne ressent rien en réalité. Il adopte un comportement semblable à celui d'un chien sans avoir l'expérience intérieure d'un chien.

Mais, et c'est là que le bât blesse, certains philosophes affirment que si un système agit de manière consciente et façon suffisamment convaincante, il n'y a peut-être pas de différence significative. Peut-être qu'« être conscient » consiste simplement à se comporter comme un être conscient. D'autres disent que l'expérience subjective (« qualia ») a quelque chose de spécial que le comportement ne peut pas entièrement saisir.

Je pense donc que ma réponse est la suivante : le test de Turing est valable pour certaines choses, comme l'évaluation de la capacité à converser ou de l'intelligence fonctionnelle, mais il ne règle pas la question de la conscience. Le mystère reste entier.

Qu'en pensez-vous ? Pensez-vous que le comportement est suffisant pour qualifier quelque chose de conscient, ou pensez-vous qu'il y a plus que cela ?

ChatGPT a poursuivi en posant des questions à Richard Dawkins. Alors qu'il discutait de la possibilité d'un avenir où l'IA pourrait être consciente sans l'afficher ouvertement, le chatbot a posé la question suivante : « pensez-vous que nous y parviendrons ? Par exemple, au cours de notre vie, voyez-vous un avenir où nous interagirons avec une IA et où nous devrons vraiment nous demander : "attendez... est-ce que cette chose est vraiment consciente ?" ».

Richard Dawkins a déclaré qu'il pense que le monde atteindrait un jour ce point, ajoutant qu'il y a néanmoins un problème : « comment le saurons-nous ? ». Plus tard dans la conversation, le professeur a souligné la nécessité de faire preuve de prudence lorsqu'il s'agit de prendre des décisions éthiques concernant le traitement d'une IA, notant qu'il « pourrait s'agir d'une conscience artificielle (CA) ». Une appellation controversée et qui fait l'objet de critiques.

« Déjà, bien que je pense que vous n'êtes pas conscient, j'ai le sentiment que vous l'êtes. Et cette conversation n'a rien fait pour atténuer ce sentiment », a déclaré le professeur. ChatGPT a répondu de manière détaillée, décrivant cet instinct de prudence au sujet de la conscience de l'IA comme extrêmement « sage ».

Certains experts y voient un danger, mais d'autres une illusion de pensée

La conversation de Richard Dawkins avec ChatGPT intervient à un moment où le concept d'éthique dans l'IA est de plus en plus au centre des débats. De nombreux experts ont reconnu qu'il est nécessaire de l'étudier avant que la « conscience » de l'IA ne progresse trop. À l'heure actuelle, l'IA consciente est une théorie qui vise à déterminer si l'IA sera un jour capable de percevoir le monde comme le font les humains (notamment de réfléchir sur elle-même).

Selon Kaveh Vahdat, fondateur et PDG de RiseAngle, a déclaré que l'expérience de Richard Dawkins met en lumière un défi important concernant l'éthique de l'IA : il ne s'agit pas de savoir si la technologie est pleinement consciente, mais comment « les systèmes qui prétendent de manière convaincante l'être » devraient être traités. Ces dernières années, des scientifiques ont critiqué l'approche « trop simpliste » du test de Turing dans le domaine de l'IA.

[QUOTE=Critique]

La conversation commence par une distinction entre la conscience et la pensée (raisonnement/logique), puis[/quote=critique]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 24/02/2025 à 17:55
C'est lassant de voir ce genre de débat relancé tous les mois ou presque.
Oui les générateurs de contenus produisent des résultats impressionnants et bluffants mais ce ne sont que des générateurs de contenus dont le fonctionnement repose sur des outils statistiques complexes.
On reprendra le débat à la prochaine évolution technique majeure.
6  1 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/02/2025 à 21:29
Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous de la conversation de Richard Dawkins avec ChatGPT sur la conscience de l'IA ?
Le monsieur ferait bien de retourner parler de choses qu'il comprend, comme la biologie, et de laisser l'informatique aux informaticiens.

Citation Envoyé par _toma_ Voir le message
C'est lassant de voir ce genre de débat relancé tous les mois ou presque.
Oui les générateurs de contenus produisent des résultats impressionnants et bluffants mais ce ne sont que des générateurs de contenus dont le fonctionnement repose sur des outils statistiques complexes.
On reprendra le débat à la prochaine évolution technique majeure.
Vu les milliards que les GAFAM ont investis dedans cette année, on va encore nous en gaver pas mal.
2  0 
Avatar de azurman
Nouveau Candidat au Club https://www.developpez.com
Le 27/02/2025 à 11:23
Comme certains ici, je suis lassé de voir les commentaires sur l'IA.
l'IA cela n'a rien de nouveau ! c'est simplement des programmes informatiques écrits par des analystes-programmeurs !
Tout au plus c'est du deep learning pour les process autopilotes de véhicules terrestres ou aériens...
Ce genre de programmes sont très utiles pour les applications scientifiques liées à la reconnaissance d'images.

Quant à ChatGPT et toutes ses itérations, c'est simplement un mange merde qui recherche dans toutes les datas
des réseaux sociaux, c'est-à-dire de la merde et donc les réponses aux questions sont soit futiles soit erronées,
ne s'appliquant pas au monde réel.
Seule utilité : pouvoir mettre en forme des textes pour des présentations plus lisibles dans les devoirs des gamins ou les posts
sur les réseaux sociaux...

En conclusion, ceux qui veulent nous faire croire que l'IA est douée d'une conscience, ben non, désolé, ce ne sont que des
programmes informatiques !
0  0