Des acteurs de la technologie ne cachent pas leur souhait de voir émerger une machine consciente. Ils estiment que l'IA pourrait bientôt développer des sentiments et des émotions à l'instar des humains. Mais des scientifiques affirment que « la conscience synthétique est hors de portée ». Mustafa Suleyman, PDG de Microsoft AI, a déclaré que les machines ne seront jamais conscientes. Roger Penrose, prix Nobel de physique, partage cet avis. Dans un nouvel article, le professeur Anil Seth a critiqué « le mythe de l'IA consciente » et a expliqué que les systèmes d'IA peuvent paraître « intelligents », mais cela ne prouve en rien qu’ils ressentent quelque chose.Anil Seth est professeur en neurosciences et directeur du Centre for Consciousness Science (SCCS) à l’Université du Sussex. Il souligne que notre fascination pour l’IA consciente vient en partie de la culture et de l’histoire. Il cite des exemples comme Yossele le Golem, Frankenstein, HAL 9000 et Klara dans Klara and The Sun, montrant que « le rêve de créer des corps artificiels et des esprits synthétiques qui pensent et ressentent finit rarement bien ».
Ces histoires montrent que l’idée d’une IA consciente est souvent un fantasme qui reflète nos propres peurs et désirs. L'article du professeur Anil Seth, publié dans le magazine en ligne Noema, défend l'idée selon laquelle la conscience humaine est fondamentalement différente de l'intelligence artificielle.
Le professeur explique que l'intelligence et la conscience sont deux choses différentes. Dans son article, il affirme qu'une définition générale utile de l'intelligence est la capacité à atteindre des objectifs complexes par des moyens flexibles. Anil Seth ajoute qu'il existe de nombreuses autres définitions, mais elles mettent toutes l'accent sur les capacités fonctionnelles d'un système : la capacité à transformer des entrées en sorties, à accomplir des tâches.
Voici l'essentiel de l'argumentation de Anil Seth : « contrairement aux ordinateurs, même ceux qui exécutent des algorithmes de réseaux neuronaux, le cerveau est un organe dont il est difficile, voire impossible, de séparer les fonctions de ce qu'il est ». Il identifie trois biais qui expliquent pourquoi nous avons tendance à confondre intelligence et conscience : l’exceptionnalisme humain, l’anthropocentrisme et l’anthropomorphisme. En quoi consistent-ils ?
La simulation n'est pas une instanciation de la conscience
Dans son article, Anil Seth présente des arguments détaillés contre une conscience basée sur le calcul (notamment « La simulation n'est pas une instanciation... Si nous simulons un être vivant, nous n'avons pas créé la vie. »). Si un ordinateur peut sembler être la métaphore parfaite du cerveau, la science cognitive des « systèmes dynamiques » (et d'autres approches) rejette l'idée que l'esprit puisse être entièrement expliqué par des algorithmes.
Et peut-être que la vie réelle doit être présente avant que quelque chose puisse être déclaré conscient. Il met en garde contre le fait que plusieurs facteurs sociaux et psychologiques, y compris certains biais cognitifs bien connus, nous prédisposent à attribuer à tort une conscience aux machines.
Anthropocentrisme
Anil Seth explique que l’anthropocentrisme est la tendance à interpréter le monde uniquement à partir de la perspective humaine, en prenant l’exemple humain comme si c’était la norme ou la mesure de toute chose. Ainsi, dans le contexte de l’IA, cela signifie que nous évaluons naturellement les machines en nous demandant si elles sont comme nous, au lieu de considérer que la conscience pourrait être différente chez d’autres types de systèmes.
Nous avons du mal à imaginer la conscience indépendamment de ce que nous ressentons nous-mêmes, car nous mettons constamment l’humain au centre de notre compréhension. Cela nous pousse à confondre intelligence et conscience, car, pour nous, ces deux notions sont étroitement liées dans l’expérience humaine.
Exceptionnalisme humain
L’auteur décrit le biais d’exceptionnalisme humain comme notre habitude à considérer l’être humain comme fondamentalement supérieur ou fondamentalement différent des autres formes de vie. D'après le professeur Anil Seth, le biais d’exceptionnalisme explique pourquoi certaines personnes s’attendent à ce que les machines qui manifestent des comportements intellectuellement possèdent aussi la conscience et l’expérience subjective humaines.
Le professeur Anil Seth explique que l’idée que la conscience serait une qualité centrale et unique à l’humain, ou du moins à tout système qui ressemble fortement à un humain, alimente « les interprétations erronées selon lesquelles des IA avancées seraient déjà ou pourraient facilement devenir conscientes ».
Anthropomorphisme
L’anthropomorphisme consiste à attribuer des caractéristiques humaines à des entités non humaines basées seulement sur des similitudes superficielles. Dans son article, le professeur Anil Seth explique que « lorsque nous sommes confrontés à une IA qui parle, répond de manière cohérente, ou imite des comportements humains, nous avons tendance à lui prêter des qualités (comme la compréhension ou la conscience) qui ne sont pas démontrées ».
Le biais d'anthropomorphisme joue un rôle majeur dans la façon dont beaucoup de gens interprètent les avancées des systèmes d’IA modernes. Plutôt que d’évaluer ces machines selon leurs capacités effectives, ils les jugent souvent à travers le miroir de leur propre humanité, ce qui les conduit à attribuer à tort des expériences subjectives, une volonté ou une conscience à des systèmes qui n’ont que des comportements qui semblent humains.
Les dangers liés à l’illusion d'une machine consciente
L’auteur met en garde contre une erreur de perspective de plus en plus courante : prendre des systèmes très performants et très “expressifs” pour des entités conscientes. À mesure que les IA deviennent capables de dialoguer de façon fluide, d’imiter des émotions et de tenir des propos introspectifs, il devient tentant de leur attribuer une vie intérieure. Or, cette tentation repose sur une projection humaine plutôt que sur une réalité scientifique.
Sur le plan moral et juridique
Selon le professeur, un premier danger de ce mythe est d’ordre moral et juridique. Si l’on commence à croire que des machines sont conscientes, on peut être amené à leur attribuer des droits, un statut moral ou une forme de dignité, comme s’il s’agissait d’êtres sensibles. Cela risquerait de détourner l’attention et les ressources de problèmes humains bien réels, tout en brouillant la frontière entre des objets techniques et des organismes vivants.
Anil Seth insiste : « si nous confondons trop facilement nos créations mécaniques avec nous-mêmes, nous les surestimons et nous nous sous-estimons ». Si l’on accorde à tort des droits à des IA qui ne sont pas réellement conscientes, cela peut limiter notre capacité à les contrôler ou à les désactiver.
Sur le plan psychologique et social
Les chatbots exploitent involontairement notre tendance naturelle à l’anthropomorphisme. Cela peut provoquer des liens artificiels, des illusions de réciprocité émotionnelle ou de compréhension profonde. Des gens peuvent se sentir "compris" ou "aimés" par une IA, alors qu’il ne s’agit que de réponses calculées à partir de données. Anil Seth y voit une forme de manipulation cognitive douce, non pas forcément malveillante, mais potentiellement déstabilisante.
En somme, le professeur explique que notre tendance à croire que les IA conversationnelles “ressentent” quelque chose peut exploiter nos vulnérabilités psychologiques et nous amener à des distorsions éthiques ou à des illusions mentales. Ce qui peut avoir des conséquences dangereuses.
Menace pour la définition de l’humain
Une troisième menace touche à notre propre compréhension de ce que nous sommes. En assimilant trop vite l’intelligence ou la performance linguistique à la conscience, on risque de réduire ce qu’est réellement l’expérience humaine. Pour le professeur Anil Seth, croire que la conscience humaine n’est qu’un produit de calculs sophistiqués revient à appauvrir l’idée même de subjectivité, de corps vécu, d’émotions incarnées et de vulnérabilité biologique.
Dangers liés à la prise de décision
Enfin, cette illusion peut aussi conduire à de mauvaises décisions politiques, économiques et technologiques. Des dirigeants ou des entreprises pourraient justifier des usages problématiques de l’IA en invoquant une supposée autonomie ou sensibilité des systèmes, ou au contraire éviter d’assumer leur responsabilité en prétendant que « l’IA décide d’elle-même ». Selon le professeur, cette illusion pourrait entraîner des problèmes éthiques distincts.
« Par exemple, nous pourrions accorder aux systèmes d'IA des droits dont ils n'ont pas réellement besoin, puisqu'ils ne seraient pas réellement conscients, ce qui limiterait notre capacité à les contrôler sans raison valable », a déclaré le professeur Anil Seth. Dans son article, il explique que maintenir une distinction claire entre simulation de l’esprit et esprit réel est donc crucial pour rester lucide, éthiquement cohérent et scientifiquement rigoureux.
L'intelligence et la conscience sont deux choses différentes
Dans son article, le professeur Anil Seth affirme que « l'intelligence et la conscience sont deux choses différentes ». L'intelligence concerne principalement l'action : résoudre des mots croisés, assembler des meubles, gérer une situation familiale délicate, se rendre à pied au magasin... Toutes ces activités impliquent un comportement intelligent d'une certaine manière. La conscience, contrairement à l'intelligence, concerne principalement l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.