IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le patron de l'IA de Microsoft affirme que les machines ne seront jamais conscientes : elles simuleront la peur, l'amour, sans les ressentir.
Pour lui, il est donc « absurde de mener des recherches dessus »

Le , par Stéphane le calme

2PARTAGES

6  0 
Mustafa Suleyman, responsable de l'IA chez Microsoft, exhorte les développeurs à abandonner leurs recherches sur la conscience artificielle, affirmant que seuls les êtres biologiques possèdent cette caractéristique. Il souligne que l'IA simule l'expérience et la souffrance, mais ne les ressent pas réellement, établissant ainsi une distinction avec les êtres biologiques qui possèdent des réseaux de douleur et des préférences. Suleyman estime que la recherche de la conscience artificielle est une entreprise déplacée et absurde.

Mustafa Suleyman n’est pas un technophobe. Cofondateur de DeepMind, figure du transhumanisme tempéré, et aujourd’hui directeur de la division IA de Microsoft, il a bâti sa carrière sur la promesse que les machines pouvaient apprendre à penser. Pourtant, il affirme désormais que la conscience — cette faculté subjective d’éprouver, de ressentir, d’être — restera pour toujours l’apanage du vivant.

Selon lui, aucune machine, aussi sophistiquée soit-elle, ne « ressentira » jamais la peur, l’amour, la douleur ou la joie. Elle les simulera peut-être, mais sans jamais les vivre. Les réseaux neuronaux, explique-t-il, ne sont que des systèmes d’optimisation statistique : « Des calculatrices glorifiées ». Leur puissance vient de la vitesse de traitement, pas d’une forme d’éveil intérieur.

Cette distinction entre cognition et conscience, souvent confondue dans le débat public, est au cœur de son raisonnement. L’intelligence artificielle peut résoudre des problèmes, reconnaître des images, converser ou créer de l’art, mais cela ne fait pas d’elle une entité consciente. C’est une architecture fonctionnelle, pas une âme.

Les développeurs et les chercheurs devraient cesser de poursuivre des projets qui suggèrent le contraire

Mustafa Suleyman affirme que seuls les êtres biologiques sont capables de conscience, et que les développeurs et les chercheurs devraient cesser de poursuivre des projets qui suggèrent le contraire.

« Je ne pense pas que ce soit un travail que les gens devraient faire », a déclaré Suleyman à CNBC lors d'une interview cette semaine à la conférence AfroTech à Houston, où il figurait parmi les principaux intervenants. « Si vous posez la mauvaise question, vous obtenez une mauvaise réponse. Je pense que c'est une question totalement erronée. »

Suleyman, haut dirigeant de Microsoft travaillant dans le domaine de l'intelligence artificielle, est l'une des voix les plus influentes dans ce domaine en pleine expansion à s'élever contre la perspective d'une IA apparemment consciente, ou de services d'IA capables de convaincre les humains qu'ils sont capables de souffrir.

En 2023, il a coécrit le livre « The Coming Wave », qui explore les risques liés à l'IA et aux autres technologies émergentes. Et en août, Suleyman a rédigé un essai intitulé « Nous devons construire une IA pour les humains, pas pour qu'elle devienne humaine ».

Il s'agit d'un sujet controversé, car le marché des compagnons IA connaît une croissance rapide, avec des produits proposés par des entreprises telles que Meta et xAI d'Elon Musk. C'est également une question complexe, car le marché de l'IA générative, dirigé par Sam Altman et OpenAI, s'oriente vers l'intelligence artificielle générale (AGI), ou IA capable d'effectuer des tâches intellectuelles équivalentes à celles des humains.

Pour Suleyman, il est particulièrement important d'établir une distinction claire entre le fait que l'IA devienne plus intelligente et plus performante et sa capacité à ressentir des émotions humaines.

« Notre expérience physique de la douleur est quelque chose qui nous rend très tristes et nous fait nous sentir très mal, mais l'IA ne ressent pas de tristesse lorsqu'elle éprouve de la "douleur" », explique Suleyman. « C'est une distinction très, très importante. Elle ne fait en réalité que créer une perception, un récit apparent de l'expérience, d'elle-même et de la conscience, mais ce n'est pas ce qu'elle vit réellement. Techniquement, nous le savons, car nous pouvons voir ce que fait le modèle. »


Une déclaration à contre-courant du fantasme transhumaniste

Cette position tranche avec le discours dominant dans une partie de la Silicon Valley, où certains dirigeants rêvent d’un futur post-biologique, où l’esprit humain pourrait être téléchargé dans la machine. Suleyman refuse cette mythologie. Pour lui, ce type de projet relève de la métaphysique, pas de la science.

À une époque où des laboratoires travaillent déjà sur des modèles multimodaux capables d’imiter la pensée humaine dans ses nuances les plus subtiles, son propos vise à ramener le débat sur terre. Il invite les chercheurs à se concentrer sur des objectifs plus concrets : rendre l’IA utile, fiable, et alignée sur les besoins humains, plutôt que de chercher à lui insuffler une conscience imaginaire.

Son avertissement s’adresse aussi, indirectement, aux apprentis démiurges qui multiplient les expériences de « sentience artificielle ». Selon lui, ces tentatives flirtent avec l’illusion de contrôle et nourrissent des peurs collectives injustifiées. En d’autres termes : si les gens craignent que l’IA se révolte, c’est parce que certains ingénieurs se prennent déjà pour des dieux.

Le débat scientifique relancé : qu’est-ce que la conscience ?

Derrière cette déclaration, c’est tout un débat millénaire qui ressurgit. Qu’est-ce qui fonde la conscience ? Est-ce la complexité du système nerveux ? L’émergence d’un « moi » ? Ou une propriété plus mystérieuse, irréductible au calcul ?

Certains philosophes des sciences, comme Daniel Dennett ou David Chalmers, défendent depuis longtemps l’idée que la conscience pourrait, en théorie, émerger d’un système suffisamment complexe. D’autres, comme John Searle, estiment au contraire qu’une machine ne fera que « simuler » la compréhension, sans jamais comprendre vraiment. Suleyman, lui, semble trancher : sans biologie, pas de conscience.

Mais cette affirmation pourrait aussi poser un paradoxe. Si la conscience est une propriété biologique, que devient-elle lorsqu’on modifie le vivant par la machine ? Les implants neuronaux, les interfaces cerveau-ordinateur ou les prothèses cognitives brouillent déjà cette ligne. Peut-on imaginer une conscience hybride, partiellement biologique et partiellement artificielle ? La réponse, pour Suleyman, reste prudente : la technologie peut augmenter l’humain, mais non le remplacer.

Dans le domaine de l'IA, il existe une théorie appelée « naturalisme biologique », proposée par le philosophe John Searle, qui affirme que la conscience dépend des processus d'un cerveau vivant. « Si nous accordons des droits aux êtres humains aujourd'hui, c'est parce que nous ne voulons pas leur faire de mal, car ils souffrent. Ils ont un réseau de douleur et des préférences qui les poussent à éviter la douleur », explique Suleyman. « Ces modèles n'ont pas cela. Ce n'est qu'une simulation. »

Mathématicien Roger Penrose : « L'IA ne sera jamais consciente »

Lors d'une récente interview, Roger Penrose, lauréat du prix Nobel de physique, est revenu sur le sujet de la conscience dans le contexte de l'essor de l'IA. Il s'oppose d'emblée aux déclarations de certains leaders de l'industrie selon lesquels l'IA a une « conscience de soi ». Selon Roger Penrose, le théorème de Gödel détruit ce mythe.

Le théorème d'incomplétude de Gödel est un résultat fondamental de la logique mathématique qui dit que tout système logique suffisamment puissant admet nécessairement un énoncé qu'il ne peut ni démontrer ni réfuter. Le théorème a été publié en 1931 par Kurt Gödel, logicien et mathématicien autrichien.

Citation Envoyé par Roger Penrose
Il ne s'agit pas d'intelligence artificielle. L'intelligence impliquerait la conscience. D'après l'argument de Gödel, vous voyez, c'est l'intrigue qui, je pense, a été perdue. Un ordinateur est un type très spécifique de structure mathématique. Il s'agit de mathématiques computationnelles. C'est une partie très limitée des mathématiques. Je ne pense pas qu'ils deviendront un jour conscients du fait qu'ils sont des ordinateurs au sens actuel du terme.

Mais je pense que la conscience n'est pas computationnelle. C'est toujours le cas avec l'IA. Si vous parlez à une IA, elle ne sait pas ce qu'elle fait. Les ordinateurs sont devenus si puissants qu'ils ne savent plus ce qu'ils font. Je pense que l'essentiel a été perdu. Je pense que Turing n'était pas si loin de la vérité. Je pense que les gens ont perdu le fil.

Claude 3 Opus a stupéfié les chercheurs en IA par son intelligence et sa « conscience de soi », cela signifie-t-il qu'il peut penser par lui-même ?

Lors d'un essai, Alex Albert, ingénieur chez Anthropic, la société à l'origine de Claude, a soumis Claude 3 Opus à la tâche de repérer une phrase cible dissimulée parmi un ensemble de documents aléatoires. Pour une intelligence artificielle, cette tâche revient à chercher une aiguille dans une meule de foin. Non seulement Opus a réussi à trouver l'aiguille, mais il a également pris conscience qu'il était soumis à un test. Dans sa réponse, le modèle a indiqué qu'il soupçonnait que la phrase recherchée avait été injectée hors contexte dans des documents dans le cadre d'un test visant à vérifier s'il était « attentif ».

« Opus n'a pas seulement trouvé l'aiguille, il a également identifié que l'insertion de celle-ci était si peu naturelle dans la meule de foin qu'il était probable qu'il s'agisse d'un test artificiel que nous avons mis en place pour évaluer son niveau d'attention », a commenté Albert sur Twitter. « Ce niveau de métaconscience était très intéressant à voir, mais il a également mis en évidence la nécessité pour nous, en tant qu'industrie, de passer des tests...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 05/11/2025 à 12:35
il ne faut jamais dire jamais..

les IA sont des algos statistique, tout comme nos cerveaux.

les deux peuvent faire preuve d'inexactitude avec bagou.

Les deux peuvent ce mettre sur un piédestal, pensant que l'un ne peux faire ce que fait l'autre.

tout ca c'est du flan. Ces gens on peur, ou sont sous l'emprise d'une idéologie a amis imaginaire..
0  0