Le 30 mai, le Center for AI Safety, un groupe de recherche de San Francisco, a diffusé un bref communiqué signé par quelques-uns des meilleurs spécialistes du domaine, déclarant que « réduire le risque d’extinction par l’IA devrait être une priorité mondiale au même niveau que d’autres risques pour la société, comme les pandémies et les guerres nucléaires ».
L'intelligence artificielle pourrait conduire à l'extinction de l'humanité
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire. L'intelligence artificielle pourrait conduire à l'extinction de l'humanité, ont averti des experts, dont les dirigeants d'OpenAI et de Google Deepmind. Des dizaines de personnes ont soutenu une déclaration publiée sur la page web du Centre for AI Safety. « L'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et les guerres nucléaires », peut-on y lire.
Sam Altman, directeur général d'OpenAI, fabricant de ChatGPT, Demis Hassabis, directeur général de Google DeepMind, et Dario Amodei, d'Anthropic, ont tous apporté leur soutien à cette idée. Mais d'autres estiment que les craintes sont exagérées. Le site web du Centre for AI Safety (Centre pour la sécurité de l'IA) propose un certain nombre de scénarios catastrophes possibles :
- les IA pourraient être militarisées - par exemple, les outils de découverte de médicaments pourraient être utilisés pour fabriquer des armes chimiques ;
- La désinformation générée par l'IA pourrait déstabiliser la société et « saper la prise de décision collective » ;
- Le pouvoir de l'IA pourrait être de plus en plus concentré dans un nombre de plus en plus restreint de mains, ce qui permettrait aux « régimes d'imposer des valeurs étroites par une surveillance omniprésente et une censure oppressive » ;
- L'enchevêtrement, où les humains deviennent dépendants de l'IA, « semblable au scénario dépeint dans le film Wall-E ».
Le Dr Geoffrey Hinton, qui avait déjà mis en garde contre les risques liés à l'IA superintelligente, a également soutenu l'appel du Centre pour la sécurité de l'IA. Yoshua Bengio, professeur d'informatique à l'Université de Montréal, l'a également signé. Hinton, Bengio et Yann LeCun, professeur à l'université de New York, sont souvent décrits comme les « parrains de l'IA » pour leurs travaux novateurs dans ce domaine, qui leur ont valu de remporter conjointement le prix Turing 2018, qui récompense les contributions exceptionnelles dans le domaine de l'informatique.
Mais le professeur LeCun, qui travaille également chez Meta, a déclaré que ces avertissements apocalyptiques étaient exagérés, tweetant que « la réaction la plus courante des chercheurs en IA à ces prophéties de malheur est de faire la grimace ».This is absolutely correct.
— Yann LeCun (@ylecun) May 4, 2023
The most common reaction by AI researchers to these prophecies of doom is face palming. https://t.co/2561GwUvmh
Pourquoi faut-il se préoccuper davantage de l’IA imparfaite que de l’IA surpuissante
Se concentrer sur la possibilité qu’une superintelligence malintentionnée extermine l’humanité peut être nuisible. Elle pourrait distraire les régulateurs, le public et les autres chercheurs en IA des travaux visant à diminuer des risques plus urgents, comme la surveillance massive, la désinformation et la manipulation, l’utilisation militaire abusive de l’IA et l’incompatibilité de notre paradigme économique actuel avec un monde où l’IA a de plus en plus d’importance.
En se focalisant sur ces problèmes actuels, il est possible de concilier les objectifs de multiples parties prenantes et de contrer les risques existentiels à long terme. Il y a toutes sortes de manières dont les systèmes d’IA pourraient accidentellement provoquer ou être impliqués dans la mort de nombreuses personnes, voire de millions. Par exemple, si l’IA était intégrée dans une technologie de frappe nucléaire autonome, un comportement imprévu de la part de l’IA pourrait avoir des conséquences dramatiques.
Cependant, ces scénarios ne doivent pas forcément impliquer une IA superintelligente ; en fait, ils sont plus probables avec des systèmes d’IA défectueux et pas si intelligents que cela. (Par exemple, la machine du Jugement dernier dans Dr. Strangelove était aussi simple que possible : un ensemble de circonstances clairement définies, dans lesquelles les bombes doivent exploser, est programmé dans une banque de mémoire à bande). Réduire les problèmes causés par une IA défectueuse fait déjà l’objet d’un grand nombre de recherches sur l’IA.
Se concentrer sur les risques réels et actuels de l’IA plutôt que sur l’IA superintelligente malveillante est nécessaire
Cependant, une discussion sur l’IA superintelligente malintentionnée pourrait avoir au moins un avantage : elle sensibilise les décideurs politiques et le grand public à la sécurité de l’IA - même si l’on peut redouter que l’utilisation d’une question aussi émotionnelle de cette manière leur soit préjudiciable. En effet, l’extinction causée par une IA malveillante est un scénario très peu probable qui se base sur des hypothèses douteuses concernant l’évolution à long terme de la vie, de l’intelligence, de la technologie et de la société.
C’est aussi un scénario peu probable en raison des nombreuses limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi. Il y a de nombreux points de contrôle naturels où les chercheurs peuvent aider à réduire le risque existentiel de l’IA en s’occupant de défis concrets et urgents sans faire du risque existentiel une priorité mondiale explicite.
Notre première préoccupation devrait être d’éviter les souffrances massives et inutiles que nous savons possibles avec les technologies actuelles et celles qui arriveront bientôt. Des études rigoureuses sur les dommages réels et actuels causés par l’IA ont été publiées et des solutions potentielles ont été suggérées. Par exemple, la technologie de reconnaissance faciale peut être utilisée pour pister les individus et restreindre les libertés fondamentales, et la technologie de génération d’images peut être utilisée pour créer de fausses images ou vidéos d’événements qui n’ont jamais eu lieu.
Pour résoudre ces problèmes, des appels à l’action ont été lancés, comme la déclaration de Montréal sur l’IA responsable et les recommandations des Sentinelles du Forum économique mondial sur l’IA générative responsable. Nous pouvons et devons anticiper les développements de l’IA à court terme et penser à leurs effets nuisibles potentiels. Mais plus nous nous projetons dans le futur de ce domaine qui avance rapidement, plus les inconnues se multiplient de manière exponentielle, ce qui rend la planification autour de ces prévisions impraticables.
Il est plus constructif de mettre en avant les défis réels et de discuter des solutions proposées plutôt que d’orienter le discours public vers des risques existentiels hypothétiques.
Quelles seraient les conditions pour que la perspective d’une extinction par une IA malveillante passe de la menace purement hypothétique à la menace réaliste qui mérite d’être une priorité mondiale ? Les dommages et même les morts massives dus à un mauvais usage de l’IA (non superintelligente) sont une possibilité réelle et l’extinction par une IA superintelligente rebelle n’est pas une impossibilité. Nous pensons cependant que cette dernière éventualité est peu probable, pour des raisons qui deviendront évidentes lors de l’examen des voies potentielles d’extinction par une IA superintelligente malveillante.
Pour cela, nous devons d’abord admettre que la superintelligence est possible, même si ce point de vue est loin de faire consensus au sein de la communauté de l’IA. La définition même de la “superintelligence” est un exercice difficile, car l’idée que l’intelligence humaine puisse être entièrement mesurée en termes de performances sur une série de tâches semble trop simpliste ; après tout, il existe de nombreuses formes différentes d’intelligence.
On peut dire sans se tromper que l’IA actuelle n’est pas superintelligente, bien qu’elle ait déjà surpassé les performances humaines dans de nombreuses tâches et qu’elle soit susceptible de le faire dans de nombreuses autres dans un avenir proche. Les modèles d’IA actuels sont très impressionnants et on peut dire qu’ils possèdent une forme d’intelligence et de compréhension du monde. Ils sont aussi facilement dupés, “hallucinent” des faussetés et ne réussissent pas toujours à faire des déductions logiques essentielles, comme les déductions causales.
Néanmoins, pour les besoins de l’argumentation, supposons que la vitesse impressionnante à laquelle l’IA progresse permette de combler ces lacunes et conduise, à un moment donné dans le futur, à l’apparition d’une superintelligence générale, c’est-à-dire d’une IA généralement meilleure que les humains dans presque toutes les tâches cognitives. Même dans ce cas, nous soulignons un certain nombre de points de contrôle qui existent le long de tout chemin potentiel vers l’extinction par une IA malveillante. Ces points de contrôle sont des signaux d’alerte qui permettraient d’identifier le moment où le risque hypothétique devient plus urgent et où il peut être nécessaire d’en faire une priorité.
Comment l’intelligence supérieure n’entraîne-t-elle pas l’extinction des espèces moins intelligentes
Les discussions sur le risque existentiel de l’IA laissent souvent penser qu’une IA superintelligente provoquerait notre extinction, car les espèces plus intelligentes provoquent « naturellement » l’extinction des espèces moins intelligentes. Il est vrai que dans l’histoire de la Terre, il existe des exemples où une espèce a provoqué l’extinction d’une autre espèce moins intelligente ; les extinctions causées par l’homme sont le plus souvent mentionnées. (Nous ne connaissons d’ailleurs aucun exemple non humain).
Cependant, l’intelligence supérieure n’est pas le facteur déterminant dans de tels événements ; il y a eu de nombreux cas où des espèces moins intelligentes ont provoqué l’extinction d’espèces plus intelligentes. Par exemple, à la fin du Dévonien, la diversification rapide des plantes et les modifications de l’atmosphère qu’elle a entraînées seraient à l’origine de l’une des extinctions massives de la Terre, qui a entraîné la disparition des trois quarts des espèces, dont beaucoup étaient probablement plus intelligentes que les plantes. Plus généralement, l’extinction inter-espèces n’est pas le résultat d’une lutte concurrentielle pour la domination entre deux espèces.
L’idée que les espèces forment une hiérarchie ou une « grande chaîne de l’être » est inexacte ; en réalité, les relations entre les espèces sont complexes et forment une toile ou un graphique d’interdépendance mutuelle sans « haut » ni « bas ». Lorsque les biologistes parlent de « dominance » dans les interactions animales, ils appliquent généralement des définitions qui se concentrent sur les relations entre individus de la même espèce. L’IA n’est pas en concurrence avec les êtres humains pour les ressources.
Comment l’IA dépend-elle de l’homme et pourquoi ne chercherait-elle pas à nous éliminer
Au contraire, nous fournissons aux systèmes d’IA leurs ressources, depuis l’énergie et les matières premières jusqu’aux puces électroniques et à l’infrastructure de réseau. Sans l’apport de l’homme, les systèmes d’IA sont incapables de se maintenir en bon état. Si l’extraction minière, le transport maritime mondial et le commerce des métaux précieux, la construction et l’entretien des centrales électriques, les usines de fabrication de puces, la construction de centres de données et la pose de câbles Internet étaient tous entièrement automatisés - y compris toute la logistique et les chaînes d’approvisionnement impliquées - alors peut-être qu’une IA superintelligente pourrait décider que les êtres humains sont superflus ou qu’ils épuisent les ressources, et décider de nous tuer.
Pour l’instant, l’IA dépend de nous, et une superintelligence admettrait vraisemblablement ce fait et chercherait à protéger l’humanité puisque nous sommes aussi vitaux à l’existence de l’IA que les plantes productrices d’oxygène le sont à la nôtre. L’évolution du mutualisme entre l’IA et l’homme est donc beaucoup plus probable que la concurrence.
En outre, le chemin vers une économie entièrement automatisée - si tel est l’objectif - sera long, chaque étape majeure servant de point de contrôle naturel pour l’intervention humaine. Une telle automatisation nécessiterait des avancées majeures dans le domaine du matériel et des logiciels. Or, la robotique ne se développe pas à un rythme proche de celui de l’IA - et il est peu probable qu’elle le fasse, puisque les progrès accélérés de l’IA sont liés au monde numérique, où la puissance de calcul croît de manière exponentielle, où la copie est presque instantanée et où l’optimisation est automatisée. »
Pourquoi s’alarmer du risque existentiel de l’IA superintelligente serait contre-productif
La plupart des chercheurs qui s’inquiètent du risque existentiel de l’IA sont probablement animés par de réelles préoccupations et un désir sincère de réduire les risques liés à l’IA en général. Ils n’ont simplement pas pris en compte les conséquences imprévues de leurs déclarations publiques. Il est naïf de penser qu’il est possible de s’alarmer publiquement au sujet d’une IA superintelligente malveillante qui pourrait exterminer l’espèce humaine sans détourner les chercheurs et les politiciens d’autres questions plus pressantes en matière d’éthique et de sécurité de l’IA.
La nature du risque existentiel de l’IA superintelligente en tant que préoccupation est qu’il est si grave en théorie qu’il pourrait avoir des effets de distorsion sur la perception du public, le financement de la recherche sur l’IA, les priorités des entreprises et la réglementation gouvernementale. Dans l’état actuel des choses, l’IA autonome superintelligente ne représente pas de risque existentiel manifeste et immédiat pour l’homme.
L’IA pourrait causer de réels dommages, mais la superintelligence n’est ni nécessaire ni suffisante pour que ce soit le cas. Il existe des voies hypothétiques par lesquelles une IA superintelligente pourrait provoquer l’extinction de l’humanité à l’avenir, mais elles sont spéculatives et vont bien au-delà de l’état actuel de la science, de la technologie ou de l’économie physique de notre planète.
Source : Noema
Et vous ?
À votre avis, existe-t-il des chances que l’IA devienne plus intelligente que les humains et qu’elle échappe à notre contrôle ?
Quels seraient les scénarios possibles où l’IA pourrait causer la destruction de l’humanité ou de la civilisation ?
Quelles seraient les limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi ?
Quels sont selon vous, les critères pour définir une IA superintelligente et malveillante ?
Quels sont les risques réels et actuels de l’IA qui méritent plus d’attention et de recherche ?
Quelles sont les solutions potentielles pour atténuer les dommages causés par l’IA dans des domaines comme la reconnaissance faciale ou la génération d’images ?
Voir aussi :
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire
L'IA représente-t-elle une menace pour l'humanité ? Non, pour un philosophe, qui estime que l'IA n'est qu'une pseudo-intelligence