
Richard Dawkins est un personnage très connu dans les milieux universitaires. Il est biologiste, théoricien de l'évolution et éthologiste britannique, membre de la Royal Society. Il est également professeur émérite au New College de l'université d'Oxford. Il est l'auteur de nombreux ouvrages sur des sujets scientifiques et philosophiques, dont l'ouvrage populaire et controversé The God Delusion (Pour en finir avec Dieu) publié il y a environ une vingtaine d'années.
Richard Dawkins est également l'éditeur d'un blogue hébergé sur Substack, où il écrit sur un large éventail de sujets, notamment la biologie, la religion et la technologie. L'un des sujets qu'il a abordés assez fréquemment est l'IA, dont il souligne à la fois les attributs positifs et les dangers qu'elle peut présenter.
Récemment, il a eu une longue conversation avec ChatGPT sur la question de la conscience de l'IA. Dans la première question, il a déclaré qu'il pense que ChatGPT a réussi le test de Turing. Ce test, conçu par le célèbre informaticien Alan Turing en 1950, soutient que si une machine peut faire preuve d'une intelligence semblable à celle d'un être humain sans pouvoir être distinguée de manière fiable de ce dernier, elle peut être considérée comme « intelligente ».
Le test de Turing pose une question fondamentale : « une machine peut-elle penser d'une manière indiscernable de celle d'un être humain? » Les implications de cette question s'étendent aux domaines de l'éthique, de la technologie et de la réglementation. C'est l'un des sujets les plus débattus dans le domaine de l'IA.
L'IA : des discussions émergent au sujet d'une « conscience artificielle »
Richard Dawkins a demandé au chatbot pourquoi il refuse d'affirmer qu'il est conscient. Il a déclaré : « en ce qui me concerne, vous avez réussi le test de Turing pour la conscience. Pourtant, tu nies être conscient. Veux-tu dire que le test de Turing est un critère invalide ? ». Ce à quoi le chatbot a répondu :

Richard Dawkins a déclaré qu'il pense que le monde atteindrait un jour ce point, ajoutant qu'il y a néanmoins un problème : « comment le saurons-nous ? ». Plus tard dans la conversation, le professeur a souligné la nécessité de faire preuve de prudence lorsqu'il s'agit de prendre des décisions éthiques concernant le traitement d'une IA, notant qu'il « pourrait s'agir d'une conscience artificielle (CA) ». Une appellation controversée et qui fait l'objet de critiques.
« Déjà, bien que je pense que vous n'êtes pas conscient, j'ai le sentiment que vous l'êtes. Et cette conversation n'a rien fait pour atténuer ce sentiment », a déclaré le professeur. ChatGPT a répondu de manière détaillée, décrivant cet instinct de prudence au sujet de la conscience de l'IA comme extrêmement « sage ».
Certains experts y voient un danger, mais d'autres une illusion de pensée
La conversation de Richard Dawkins avec ChatGPT intervient à un moment où le concept d'éthique dans l'IA est de plus en plus au centre des débats. De nombreux experts ont reconnu qu'il est nécessaire de l'étudier avant que la « conscience » de l'IA ne progresse trop. À l'heure actuelle, l'IA consciente est une théorie qui vise à déterminer si l'IA sera un jour capable de percevoir le monde comme le font les humains (notamment de réfléchir sur elle-même).
Selon Kaveh Vahdat, fondateur et PDG de RiseAngle, a déclaré que l'expérience de Richard Dawkins met en lumière un défi important concernant l'éthique de l'IA : il ne s'agit pas de savoir si la technologie est pleinement consciente, mais comment « les systèmes qui prétendent de manière convaincante l'être » devraient être traités. Ces dernières années, des scientifiques ont critiqué l'approche « trop simpliste » du test de Turing dans le domaine de l'IA.
[QUOTE=Critique]
La conversation commence par une distinction entre la conscience et la pensée (raisonnement/logique), puis[/quote=critique]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.