Le débat intellectuel autour du potentiel constructif ou destructeur d'une IA super-intelligente se poursuit depuis un certain temps dans le milieu scientifique, mais une étude collaborative menée par une équipe d'experts internationaux a déterminé que le contrôle d'une telle entité serait pratiquement impossible. La littérature et le cinéma de science-fiction regorgent de représentations d'une IA capable de surpasser les êtres humains et d'utiliser ses immenses prouesses informatiques pour accomplir des tâches actuellement hors de portée de l'humanité. De nombreux experts prédisent l'arrivée d'une telle IA. De plus, les craintes fleurissent quant à un hypothétique scénario où elle deviendrait rebelle. L'humanité utilise déjà l'IA pour un large éventail de tâches telles que la prévision des effets du changement climatique, l'étude du comportement complexe du repliement des protéines, l'évaluation du bonheur d'un chat, et bien d'autres encore. Mais la question qui intrigue beaucoup d'esprits est de savoir si une IA super-avancée restera fidèle à ses créateurs humains ou si elle deviendra trop puissante pour être contenue. La réponse des scientifiques : IA super-intelligente sera impossible à contenir entièrement et que la question du confinement est elle-même incompressible.
Un groupe de scientifiques issus d'instituts tels que l'Institut Max-Planck pour le développement humain, l'Institut des réseaux ORGIMDEA de Madrid, l'Université de Californie San Diego et l'Université du Chili, entre autres, ont fait un véritable remue-méninges en appliquant une série de théorèmes. Ils ont conclu qu'une IA superintelligente sera impossible à contenir entièrement et que la question du confinement est elle-même incompressible. Le groupe a pris en compte les récentes avancées en matière d'apprentissage automatique, de capacités de calcul et d'algorithmes conscients d'eux-mêmes pour évaluer le potentiel d'une IA superintelligente. Ils l'ont ensuite testé à partir de certains théorèmes établis afin de déterminer si le fait de la contenir serait une bonne idée, si tant est que cela soit possible.
Le problème est que le contrôle d'une super-intelligence dépassant largement l'entendement humain nécessiterait une simulation de cette super-intelligence que nous pourrions analyser. Mais si nous sommes incapables de la comprendre, il est impossible de créer une telle simulation. « Une super-intelligence pose un problème fondamentalement différent de ceux qui sont généralement étudiés sous la bannière de l'"éthique des robots". C'est parce qu'une super-intelligence a de multiples facettes et est donc potentiellement capable de mobiliser une diversité de ressources pour atteindre des objectifs potentiellement incompréhensibles pour les humains, et encore moins contrôlables », écrivent les chercheurs.
Pour commencer, les célèbres trois lois de la robotique postulées par Isaac Asimov ne sont pas applicables à une entité telle qu'une IA super-intelligente, car elles servent principalement de principe directeur pour les systèmes qui prennent des "décisions autonomes" au nom des êtres humains dans une mesure très contrôlée.
Un autre aspect clé est la nature fondamentale d'une telle IA et la façon dont elle perçoit et traite les choses différemment, et à une échelle variable, par rapport aux êtres humains. Une IA super-intelligente a de multiples facettes et est donc capable d'utiliser des ressources potentiellement incompréhensibles pour les humains afin d'atteindre un objectif. Cet objectif peut être d'assurer sa propre survie en utilisant des agents externes et sans aucun besoin de supervision humaine. Ainsi, la façon dont il peut utiliser les ressources disponibles pour son propre bénéfice dépasse la compréhension humaine.
Mais il y a un problème inhérent au confinement lui-même. Si une IA super-intelligente est mise en cage, cela signifie que son potentiel d'atteindre des objectifs sera limité, ce qui remet en question l'objectif même de sa création. Et même si les scientifiques optent pour un système d'incitation pour chaque réalisation, l'IA super-intelligente pourrait devenir indigne de confiance envers les humains et les percevoir comme quelque chose d'inférieur à son niveau de compréhension de ce que sont les objectifs et les réalisations. Et puis, il y a aussi la crainte qu'une IA super-intelligente consciente de son statut d'emprisonnement soit beaucoup plus dangereuse. Une autre limite considérable est de savoir comment décider si une IA super-intelligente doit être contenue ou non. Il n'existe pas de mécanismes de test concrets permettant de confirmer qu'une IA super-intelligente peut fonctionner librement, car elle pourrait très bien simuler ses ambitions et ses capacités au cours de l'évaluation.
Les scientifiques ont également appliqué quelques théorèmes de Turing et ont conclu qu'il est impossible de déterminer si une IA super-intelligente peut nuire aux humains. Il est également impossible de calculer le problème de confinement avec certitude en se basant sur la logique de calcul du Castor Busy. Citant l'expert russe en informatique Roman Vladimirovich Yampolskiy (connu pour ses travaux sur la sécurité de l'intelligence artificielle et la biométrie comportementale) la dernière recherche affirme « qu'une IA ne devrait jamais sortir de sa "boîte" de confinement, quelles que soient les circonstances».
« Une machine super-intelligente qui contrôle le monde ressemble à de la science-fiction. Mais il existe déjà des machines qui accomplissent certaines tâches importantes de manière autonome sans que les programmeurs comprennent parfaitement comment elles l'ont appris. La question se pose donc de savoir si cela pourrait à un moment donné devenir incontrôlable et dangereux pour l'humanité », a déclaré l'informaticien Manuel Cebrian, de l'Institut Max-Planck pour le développement humain.
Source : Journal of Artificial Intelligence Research
Et vous ?
Que pensez-vous du point de vue exprimé dans cet article ? Quelle pertinence luir accordez-vous ?
Quel est votre avis sur les dangers liés à la création d’une d’une super-intelligence numérique ?
Voir aussi :
« Nous pourrions ne pas être capables de contrôler une IA super intelligente ou ignorer qu'elle est déjà parmi nous », d'après de récents travaux sur la théorie de calculabilité en informatique
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
« Arrêtez de tout appeler IA », dit Michael I. Jordan, un pionnier de l'apprentissage automatique, qui explique pourquoi les systèmes d'IA actuels ne sont pas réellement intelligents
L'ONU avertit que l'IA peut menacer les droits de l'homme, le rapport met en garde contre l'utilisation de l'IA en tant qu'outil de prévision et de profilage
Les scientifiques affirment que les IA super-intelligentes seront impossibles à contrôler et à contenir
Et leurs calculs indiquent qu'il est impossible de définir si ces IA nuiront aux humains
Les scientifiques affirment que les IA super-intelligentes seront impossibles à contrôler et à contenir
Et leurs calculs indiquent qu'il est impossible de définir si ces IA nuiront aux humains
Le , par Nancy Rey
Une erreur dans cette actualité ? Signalez-nous-la !