IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La possibilité d'une IA consciente est-elle un mythe dangereux ? « Cette illusion attribue aux machines une profondeur qu'elles n'ont pas et minimise la singularité de l'expérience humaine »,
Selon un expert

Le , par Mathis Lucas

47PARTAGES

4  0 
Des acteurs de la technologie ne cachent pas leur souhait de voir émerger une machine consciente. Ils estiment que l'IA pourrait bientôt développer des sentiments et des émotions à l'instar des humains. Mais des scientifiques affirment que « la conscience synthétique est hors de portée ». Mustafa Suleyman, PDG de Microsoft AI, a déclaré que les machines ne seront jamais conscientes. Roger Penrose, prix Nobel de physique, partage cet avis. Dans un nouvel article, le professeur Anil Seth a critiqué « le mythe de l'IA consciente » et a expliqué que les systèmes d'IA peuvent paraître « intelligents », mais cela ne prouve en rien qu’ils ressentent quelque chose.

Anil Seth est professeur en neurosciences et directeur du Centre for Consciousness Science (SCCS) à l’Université du Sussex. Il souligne que notre fascination pour l’IA consciente vient en partie de la culture et de l’histoire. Il cite des exemples comme Yossele le Golem, Frankenstein, HAL 9000 et Klara dans Klara and The Sun, montrant que « le rêve de créer des corps artificiels et des esprits synthétiques qui pensent et ressentent finit rarement bien ».

Ces histoires montrent que l’idée d’une IA consciente est souvent un fantasme qui reflète nos propres peurs et désirs. L'article du professeur Anil Seth, publié dans le magazine en ligne Noema, défend l'idée selon laquelle la conscience humaine est fondamentalement différente de l'intelligence artificielle.

Le professeur explique que l'intelligence et la conscience sont deux choses différentes. Dans son article, il affirme qu'une définition générale utile de l'intelligence est la capacité à atteindre des objectifs complexes par des moyens flexibles. Anil Seth ajoute qu'il existe de nombreuses autres définitions, mais elles mettent toutes l'accent sur les capacités fonctionnelles d'un système : la capacité à transformer des entrées en sorties, à accomplir des tâches.


Voici l'essentiel de l'argumentation de Anil Seth : « contrairement aux ordinateurs, même ceux qui exécutent des algorithmes de réseaux neuronaux, le cerveau est un organe dont il est difficile, voire impossible, de séparer les fonctions de ce qu'il est ». Il identifie trois biais qui expliquent pourquoi nous avons tendance à confondre intelligence et conscience : l’exceptionnalisme humain, l’anthropocentrisme et l’anthropomorphisme. En quoi consistent-ils ?

La simulation n'est pas une instanciation de la conscience

Dans son article, Anil Seth présente des arguments détaillés contre une conscience basée sur le calcul (notamment « La simulation n'est pas une instanciation... Si nous simulons un être vivant, nous n'avons pas créé la vie. »). Si un ordinateur peut sembler être la métaphore parfaite du cerveau, la science cognitive des « systèmes dynamiques » (et d'autres approches) rejette l'idée que l'esprit puisse être entièrement expliqué par des algorithmes.

Et peut-être que la vie réelle doit être présente avant que quelque chose puisse être déclaré conscient. Il met en garde contre le fait que plusieurs facteurs sociaux et psychologiques, y compris certains biais cognitifs bien connus, nous prédisposent à attribuer à tort une conscience aux machines.

Anthropocentrisme

Anil Seth explique que l’anthropocentrisme est la tendance à interpréter le monde uniquement à partir de la perspective humaine, en prenant l’exemple humain comme si c’était la norme ou la mesure de toute chose. Ainsi, dans le contexte de l’IA, cela signifie que nous évaluons naturellement les machines en nous demandant si elles sont comme nous, au lieu de considérer que la conscience pourrait être différente chez d’autres types de systèmes.

Nous avons du mal à imaginer la conscience indépendamment de ce que nous ressentons nous-mêmes, car nous mettons constamment l’humain au centre de notre compréhension. Cela nous pousse à confondre intelligence et conscience, car, pour nous, ces deux notions sont étroitement liées dans l’expérience humaine.

Exceptionnalisme humain

L’auteur décrit le biais d’exceptionnalisme humain comme notre habitude à considérer l’être humain comme fondamentalement supérieur ou fondamentalement différent des autres formes de vie. D'après le professeur Anil Seth, le biais d’exceptionnalisme explique pourquoi certaines personnes s’attendent à ce que les machines qui manifestent des comportements intellectuellement possèdent aussi la conscience et l’expérience subjective humaines.

Le professeur Anil Seth explique que l’idée que la conscience serait une qualité centrale et unique à l’humain, ou du moins à tout système qui ressemble fortement à un humain, alimente « les interprétations erronées selon lesquelles des IA avancées seraient déjà ou pourraient facilement devenir conscientes ».

Anthropomorphisme

L’anthropomorphisme consiste à attribuer des caractéristiques humaines à des entités non humaines basées seulement sur des similitudes superficielles. Dans son article, le professeur Anil Seth explique que « lorsque nous sommes confrontés à une IA qui parle, répond de manière cohérente, ou imite des comportements humains, nous avons tendance à lui prêter des qualités (comme la compréhension ou la conscience) qui ne sont pas démontrées ».

Le biais d'anthropomorphisme joue un rôle majeur dans la façon dont beaucoup de gens interprètent les avancées des systèmes d’IA modernes. Plutôt que d’évaluer ces machines selon leurs capacités effectives, ils les jugent souvent à travers le miroir de leur propre humanité, ce qui les conduit à attribuer...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de fdecode
Membre habitué https://www.developpez.com
Le 17/02/2026 à 16:42
Citation Envoyé par Mathis Lucas Voir le message
Roger Penrose ... estime que « la conscience n'est pas calculable » ... phénomène physique enraciné dans la physique non calculable, impliquant éventuellement la réalité quantique.
L'idée est séduisante. Mais cette notion de non calculabilité physique à l'air d'être marginale pour l'instant.

Il y a quand même des résultats sur les EDP, qui suggèrent que la non-calculabilité est un phénomène non robuste d'un point de vue physique:
https://www.sciencedirect.com/scienc...0187088390004X
https://www.cambridge.org/core/books...0EFEA0A4F30FD9
Et en quantique, les machines quantiques, quant à elles, sont simulables par des machines de Turing. Le gain est en complexité, pas en calculabilité.

Mais je crois que Penrose envisage certaines modifications de la mécanique quantique (notamment via l’Objective Reduction), pour lesquelles il conjecture l’existence d’un processus physique non calculable.
0  1