Mustafa Suleyman, responsable de l'IA chez Microsoft, exhorte les développeurs à abandonner leurs recherches sur la conscience artificielle, affirmant que seuls les êtres biologiques possèdent cette caractéristique. Il souligne que l'IA simule l'expérience et la souffrance, mais ne les ressent pas réellement, établissant ainsi une distinction avec les êtres biologiques qui possèdent des réseaux de douleur et des préférences. Suleyman estime que la recherche de la conscience artificielle est une entreprise déplacée et absurde.Mustafa Suleyman n’est pas un technophobe. Cofondateur de DeepMind, figure du transhumanisme tempéré, et aujourd’hui directeur de la division IA de Microsoft, il a bâti sa carrière sur la promesse que les machines pouvaient apprendre à penser. Pourtant, il affirme désormais que la conscience — cette faculté subjective d’éprouver, de ressentir, d’être — restera pour toujours l’apanage du vivant.
Selon lui, aucune machine, aussi sophistiquée soit-elle, ne « ressentira » jamais la peur, l’amour, la douleur ou la joie. Elle les simulera peut-être, mais sans jamais les vivre. Les réseaux neuronaux, explique-t-il, ne sont que des systèmes d’optimisation statistique : « Des calculatrices glorifiées ». Leur puissance vient de la vitesse de traitement, pas d’une forme d’éveil intérieur.
Cette distinction entre cognition et conscience, souvent confondue dans le débat public, est au cœur de son raisonnement. L’intelligence artificielle peut résoudre des problèmes, reconnaître des images, converser ou créer de l’art, mais cela ne fait pas d’elle une entité consciente. C’est une architecture fonctionnelle, pas une âme.
Les développeurs et les chercheurs devraient cesser de poursuivre des projets qui suggèrent le contraire
Mustafa Suleyman affirme que seuls les êtres biologiques sont capables de conscience, et que les développeurs et les chercheurs devraient cesser de poursuivre des projets qui suggèrent le contraire.
« Je ne pense pas que ce soit un travail que les gens devraient faire », a déclaré Suleyman à CNBC lors d'une interview cette semaine à la conférence AfroTech à Houston, où il figurait parmi les principaux intervenants. « Si vous posez la mauvaise question, vous obtenez une mauvaise réponse. Je pense que c'est une question totalement erronée. »
Suleyman, haut dirigeant de Microsoft travaillant dans le domaine de l'intelligence artificielle, est l'une des voix les plus influentes dans ce domaine en pleine expansion à s'élever contre la perspective d'une IA apparemment consciente, ou de services d'IA capables de convaincre les humains qu'ils sont capables de souffrir.
En 2023, il a coécrit le livre « The Coming Wave », qui explore les risques liés à l'IA et aux autres technologies émergentes. Et en août, Suleyman a rédigé un essai intitulé « Nous devons construire une IA pour les humains, pas pour qu'elle devienne humaine ».
Il s'agit d'un sujet controversé, car le marché des compagnons IA connaît une croissance rapide, avec des produits proposés par des entreprises telles que Meta et xAI d'Elon Musk. C'est également une question complexe, car le marché de l'IA générative, dirigé par Sam Altman et OpenAI, s'oriente vers l'intelligence artificielle générale (AGI), ou IA capable d'effectuer des tâches intellectuelles équivalentes à celles des humains.
Pour Suleyman, il est particulièrement important d'établir une distinction claire entre le fait que l'IA devienne plus intelligente et plus performante et sa capacité à ressentir des émotions humaines.
« Notre expérience physique de la douleur est quelque chose qui nous rend très tristes et nous fait nous sentir très mal, mais l'IA ne ressent pas de tristesse lorsqu'elle éprouve de la "douleur" », explique Suleyman. « C'est une distinction très, très importante. Elle ne fait en réalité que créer une perception, un récit apparent de l'expérience, d'elle-même et de la conscience, mais ce n'est pas ce qu'elle vit réellement. Techniquement, nous le savons, car nous pouvons voir ce que fait le modèle. »
Une déclaration à contre-courant du fantasme transhumaniste
Cette position tranche avec le discours dominant dans une partie de la Silicon Valley, où certains dirigeants rêvent d’un futur post-biologique, où l’esprit humain pourrait être téléchargé dans la machine. Suleyman refuse cette mythologie. Pour lui, ce type de projet relève de la métaphysique, pas de la science.
À une époque où des laboratoires travaillent déjà sur des modèles multimodaux capables d’imiter la pensée humaine dans ses nuances les plus subtiles, son propos vise à ramener le débat sur terre. Il invite les chercheurs à se concentrer sur des objectifs plus concrets : rendre l’IA utile, fiable, et alignée sur les besoins humains, plutôt que de chercher à lui insuffler une conscience imaginaire.
Son avertissement s’adresse aussi, indirectement, aux apprentis démiurges qui multiplient les expériences de « sentience artificielle ». Selon lui, ces tentatives flirtent avec l’illusion de contrôle et nourrissent des peurs collectives injustifiées. En d’autres termes : si les gens craignent que l’IA se révolte, c’est parce que certains ingénieurs se prennent déjà pour des dieux.
Le débat scientifique relancé : qu’est-ce que la conscience ?
Derrière cette déclaration, c’est tout un débat millénaire qui ressurgit. Qu’est-ce qui fonde la conscience ? Est-ce la complexité du système nerveux ? L’émergence d’un « moi » ? Ou une propriété plus mystérieuse, irréductible au calcul ?
Certains philosophes des sciences, comme Daniel Dennett ou David Chalmers, défendent depuis longtemps l’idée que la conscience pourrait, en...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
