IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'illusion du risque existentiel de l'IA : pourquoi il faut arrêter de craindre une IA surpuissante et malveillante,
Selon Google Research et des experts en IA

Le , par Bruno

10PARTAGES

7  0 
Le texte analyse le risque que l’humanité soit anéantie par une IA superintelligente. Il montre que ce risque est très faible et qu’il se base sur des suppositions incertaines. Il critique le fait de se focaliser sur ce risque, qui peut occulter les problèmes plus réels et immédiats que crée l’IA, comme la surveillance, la désinformation, la manipulation, l’utilisation militaire et l’inadaptation économique. Il recommande de s’occuper de ces problèmes actuels, qui peuvent aussi aider à prévenir les risques existentiels à long terme. Il cite des exemples d’études et de solutions possibles pour réduire les dommages causés par l’IA.

Le 30 mai, le Center for AI Safety, un groupe de recherche de San Francisco, a diffusé un bref communiqué signé par quelques-uns des meilleurs spécialistes du domaine, déclarant que « réduire le risque d’extinction par l’IA devrait être une priorité mondiale au même niveau que d’autres risques pour la société, comme les pandémies et les guerres nucléaires ».


L'intelligence artificielle pourrait conduire à l'extinction de l'humanité

Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire. L'intelligence artificielle pourrait conduire à l'extinction de l'humanité, ont averti des experts, dont les dirigeants d'OpenAI et de Google Deepmind. Des dizaines de personnes ont soutenu une déclaration publiée sur la page web du Centre for AI Safety. « L'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et les guerres nucléaires », peut-on y lire.

Sam Altman, directeur général d'OpenAI, fabricant de ChatGPT, Demis Hassabis, directeur général de Google DeepMind, et Dario Amodei, d'Anthropic, ont tous apporté leur soutien à cette idée. Mais d'autres estiment que les craintes sont exagérées. Le site web du Centre for AI Safety (Centre pour la sécurité de l'IA) propose un certain nombre de scénarios catastrophes possibles :

  • les IA pourraient être militarisées - par exemple, les outils de découverte de médicaments pourraient être utilisés pour fabriquer des armes chimiques ;
  • La désinformation générée par l'IA pourrait déstabiliser la société et « saper la prise de décision collective » ;
  • Le pouvoir de l'IA pourrait être de plus en plus concentré dans un nombre de plus en plus restreint de mains, ce qui permettrait aux « régimes d'imposer des valeurs étroites par une surveillance omniprésente et une censure oppressive » ;
  • L'enchevêtrement, où les humains deviennent dépendants de l'IA, « semblable au scénario dépeint dans le film Wall-E ».

Le Dr Geoffrey Hinton, qui avait déjà mis en garde contre les risques liés à l'IA superintelligente, a également soutenu l'appel du Centre pour la sécurité de l'IA. Yoshua Bengio, professeur d'informatique à l'Université de Montréal, l'a également signé. Hinton, Bengio et Yann LeCun, professeur à l'université de New York, sont souvent décrits comme les « parrains de l'IA » pour leurs travaux novateurs dans ce domaine, qui leur ont valu de remporter conjointement le prix Turing 2018, qui récompense les contributions exceptionnelles dans le domaine de l'informatique.

[Tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">This is absolutely correct.<br>The most common reaction by AI researchers to these prophecies of doom is face palming. <a href="https://t.co/2561GwUvmh">https://t.co/2561GwUvmh</a></p>&mdash; Yann LeCun (@ylecun) <a href="https://twitter.com/ylecun/status/1654125161300520967?ref_src=twsrc%5Etfw">May 4, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/Tweet]

Mais le professeur LeCun, qui travaille également chez Meta, a déclaré que ces avertissements apocalyptiques étaient exagérés, tweetant que « la réaction la plus courante des chercheurs en IA à ces prophéties de malheur est de faire la grimace ».

Pourquoi faut-il se préoccuper davantage de l’IA imparfaite que de l’IA surpuissante

Se concentrer sur la possibilité qu’une superintelligence malintentionnée extermine l’humanité peut être nuisible. Elle pourrait distraire les régulateurs, le public et les autres chercheurs en IA des travaux visant à diminuer des risques plus urgents, comme la surveillance massive, la désinformation et la manipulation, l’utilisation militaire abusive de l’IA et l’incompatibilité de notre paradigme économique actuel avec un monde où l’IA a de plus en plus d’importance.

En se focalisant sur ces problèmes actuels, il est possible de concilier les objectifs de multiples parties prenantes et de contrer les risques existentiels à long terme. Il y a toutes sortes de manières dont les systèmes d’IA pourraient accidentellement provoquer ou être impliqués dans la mort de nombreuses personnes, voire de millions. Par exemple, si l’IA était intégrée dans une technologie de frappe nucléaire autonome, un comportement imprévu de la part de l’IA pourrait avoir des conséquences dramatiques.

Cependant, ces scénarios ne doivent pas forcément impliquer une IA superintelligente ; en fait, ils sont plus probables avec des systèmes d’IA défectueux et pas si intelligents que cela. (Par exemple, la machine du Jugement dernier dans Dr. Strangelove était aussi simple que possible : un ensemble de circonstances clairement définies, dans lesquelles les bombes doivent exploser, est programmé dans une banque de mémoire à bande). Réduire les problèmes causés par une IA défectueuse fait déjà l’objet d’un grand nombre de recherches sur l’IA.

Se concentrer sur les risques réels et actuels de l’IA plutôt que sur l’IA superintelligente malveillante est nécessaire

Cependant, une discussion sur l’IA superintelligente malintentionnée pourrait avoir au moins un avantage : elle sensibilise les décideurs politiques et le grand public à la sécurité de l’IA - même si l’on peut redouter que l’utilisation d’une question aussi émotionnelle de cette manière leur soit préjudiciable. En effet, l’extinction causée par une IA malveillante est un scénario très peu probable qui se base sur des hypothèses douteuses concernant l’évolution à long terme de la vie, de l’intelligence, de la technologie et de la société.

C’est aussi un scénario peu probable en raison des nombreuses limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi. Il y a de nombreux points de contrôle naturels où les chercheurs peuvent aider à réduire le risque existentiel de l’IA en s’occupant de défis concrets et urgents sans faire du risque existentiel une priorité mondiale explicite.

Notre première préoccupation devrait être d’éviter les souffrances massives et inutiles que nous savons possibles avec les technologies actuelles et celles qui arriveront bientôt. Des études rigoureuses sur les dommages réels et actuels causés par l’IA ont été publiées et des solutions potentielles ont été suggérées. Par exemple, la technologie de reconnaissance faciale peut être utilisée pour pister les individus et restreindre les libertés fondamentales, et la technologie de génération d’images peut être utilisée pour créer de fausses images ou vidéos d’événements qui n’ont jamais eu lieu.

Pour résoudre ces problèmes, des appels à l’action ont été lancés, comme la déclaration de Montréal sur l’IA responsable et les recommandations des Sentinelles du Forum économique mondial sur l’IA générative responsable. Nous pouvons et devons anticiper les développements de l’IA à court terme et penser à leurs effets nuisibles potentiels. Mais plus nous nous projetons dans le futur de ce domaine qui avance rapidement, plus les inconnues se multiplient de manière exponentielle, ce qui rend la planification autour de ces prévisions impraticables.

Il est plus constructif de mettre en avant les défis réels et de discuter des solutions proposées plutôt que d’orienter le discours public vers des risques existentiels hypothétiques.

Quelles seraient les conditions pour que la perspective d’une extinction par une IA malveillante passe de la menace purement hypothétique à la menace réaliste qui mérite d’être une priorité mondiale ? Les dommages et même les morts massives dus à un mauvais usage de l’IA (non superintelligente) sont une possibilité réelle et l’extinction par une IA superintelligente rebelle n’est pas une impossibilité. Nous pensons cependant que cette dernière éventualité est peu probable, pour des raisons qui deviendront évidentes lors de l’examen des voies potentielles d’extinction par une IA superintelligente malveillante.

Pour cela, nous devons d’abord admettre que la superintelligence est possible, même si ce point de vue est loin de faire consensus au sein de la communauté de l’IA. La définition même de la “superintelligence” est un exercice difficile, car l’idée que l’intelligence humaine puisse être entièrement mesurée en termes de performances sur une série de tâches semble trop simpliste ; après tout, il existe de nombreuses formes différentes d’intelligence.

On peut dire sans se tromper que l’IA actuelle n’est pas superintelligente, bien qu’elle ait déjà surpassé les performances humaines dans de nombreuses tâches et qu’elle soit susceptible de le faire dans de nombreuses autres dans un avenir proche. Les modèles d’IA actuels sont très impressionnants et on peut dire qu’ils possèdent une forme d’intelligence et de compréhension du monde. Ils sont aussi facilement dupés, “hallucinent” des faussetés et ne réussissent pas toujours à faire des déductions logiques essentielles, comme les déductions causales.

Néanmoins, pour les besoins de l’argumentation, supposons que la vitesse impressionnante à laquelle l’IA progresse permette de combler ces lacunes et conduise, à un moment donné dans le futur, à l’apparition d’une superintelligence générale, c’est-à-dire d’une IA généralement meilleure que les humains dans presque toutes les tâches cognitives. Même dans ce cas, nous soulignons un certain nombre de points de contrôle qui existent le long de tout chemin potentiel vers l’extinction par une IA malveillante. Ces points de contrôle sont des signaux d’alerte qui permettraient d’identifier le moment où le risque hypothétique devient plus urgent et où il peut être nécessaire d’en faire une priorité.

Comment l’intelligence supérieure n’entraîne-t-elle pas l’extinction des espèces moins intelligentes

Les discussions sur le risque existentiel de l’IA laissent souvent penser qu’une IA superintelligente provoquerait notre extinction, car les espèces plus intelligentes provoquent « naturellement » l’extinction des espèces moins intelligentes. Il est vrai que dans l’histoire de la Terre, il existe des exemples où une espèce a provoqué l’extinction d’une autre espèce moins intelligente ; les extinctions causées par l’homme sont le plus souvent mentionnées. (Nous ne connaissons d’ailleurs aucun exemple non humain).

Cependant, l’intelligence supérieure n’est pas le facteur déterminant dans de tels événements ; il y a eu de nombreux cas où des espèces moins intelligentes ont provoqué l’extinction d’espèces plus intelligentes. Par exemple, à la fin du Dévonien, la diversification rapide des plantes et les modifications de l’atmosphère qu’elle a entraînées seraient à l’origine de l’une des extinctions massives de la Terre, qui a entraîné la disparition des trois quarts des espèces, dont beaucoup étaient probablement plus intelligentes que les plantes. Plus généralement, l’extinction inter-espèces n’est pas le résultat d’une lutte concurrentielle pour la domination entre deux espèces.

L’idée que les espèces forment une hiérarchie ou une « grande chaîne de l’être » est inexacte ; en réalité, les relations entre les espèces sont complexes et forment une toile ou un graphique d’interdépendance mutuelle sans « haut » ni « bas ». Lorsque les biologistes parlent de « dominance » dans les interactions animales, ils appliquent généralement des définitions qui se concentrent sur les relations entre individus de la même espèce. L’IA n’est pas en concurrence avec les êtres humains pour les ressources.

Comment l’IA dépend-elle de l’homme et pourquoi ne chercherait-elle pas à nous éliminer

Au contraire, nous fournissons aux systèmes d’IA leurs ressources, depuis l’énergie et les matières premières jusqu’aux puces électroniques et à l’infrastructure de réseau. Sans l’apport de l’homme, les systèmes d’IA sont incapables de se maintenir en bon état. Si l’extraction minière, le transport maritime mondial et le commerce des métaux précieux, la construction et l’entretien des centrales électriques, les usines de fabrication de puces, la construction de centres de données et la pose de câbles Internet étaient tous entièrement automatisés - y compris toute la logistique et les chaînes d’approvisionnement impliquées - alors peut-être qu’une IA superintelligente pourrait décider que les êtres humains sont superflus ou qu’ils épuisent les ressources, et décider de nous tuer.

Pour l’instant, l’IA dépend de nous, et une superintelligence admettrait vraisemblablement ce fait et chercherait à protéger l’humanité puisque nous sommes aussi vitaux à l’existence de l’IA que les plantes productrices d’oxygène le sont à la nôtre. L’évolution du mutualisme entre l’IA et l’homme est donc beaucoup plus probable que la concurrence.

En outre, le chemin vers une économie entièrement automatisée - si tel est l’objectif - sera long, chaque étape majeure servant de point de contrôle naturel pour l’intervention humaine. Une telle automatisation nécessiterait des avancées majeures dans le domaine du matériel et des logiciels. Or, la robotique ne se développe pas à un rythme proche de celui de l’IA - et il est peu probable qu’elle le fasse, puisque les progrès accélérés de l’IA sont liés au monde numérique, où la puissance de calcul croît de manière exponentielle, où la copie est presque instantanée et où l’optimisation est automatisée. »

Pourquoi s’alarmer du risque existentiel de l’IA superintelligente serait contre-productif

La plupart des chercheurs qui s’inquiètent du risque existentiel de l’IA sont probablement animés par de réelles préoccupations et un désir sincère de réduire les risques liés à l’IA en général. Ils n’ont simplement pas pris en compte les conséquences imprévues de leurs déclarations publiques. Il est naïf de penser qu’il est possible de s’alarmer publiquement au sujet d’une IA superintelligente malveillante qui pourrait exterminer l’espèce humaine sans détourner les chercheurs et les politiciens d’autres questions plus pressantes en matière d’éthique et de sécurité de l’IA.

La nature du risque existentiel de l’IA superintelligente en tant que préoccupation est qu’il est si grave en théorie qu’il pourrait avoir des effets de distorsion sur la perception du public, le financement de la recherche sur l’IA, les priorités des entreprises et la réglementation gouvernementale. Dans l’état actuel des choses, l’IA autonome superintelligente ne représente pas de risque existentiel manifeste et immédiat pour l’homme.

L’IA pourrait causer de réels dommages, mais la superintelligence n’est ni nécessaire ni suffisante pour que ce soit le cas. Il existe des voies hypothétiques par lesquelles une IA superintelligente pourrait provoquer l’extinction de l’humanité à l’avenir, mais elles sont spéculatives et vont bien au-delà de l’état actuel de la science, de la technologie ou de l’économie physique de notre planète.

Source : Noema

Et vous ?

À votre avis, existe-t-il des chances que l’IA devienne plus intelligente que les humains et qu’elle échappe à notre contrôle ?

Quels seraient les scénarios possibles où l’IA pourrait causer la destruction de l’humanité ou de la civilisation ?

Quelles seraient les limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi ?

Quels sont selon vous, les critères pour définir une IA superintelligente et malveillante ?

Quels sont les risques réels et actuels de l’IA qui méritent plus d’attention et de recherche ?

Quelles sont les solutions potentielles pour atténuer les dommages causés par l’IA dans des domaines comme la reconnaissance faciale ou la génération d’images ?

Voir aussi :

Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse

Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire

L'IA représente-t-elle une menace pour l'humanité ? Non, pour un philosophe, qui estime que l'IA n'est qu'une pseudo-intelligence

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/07/2023 à 23:49
Citation Envoyé par Bruno Voir le message

À votre avis, existe-t-il des chances que l’IA devienne plus intelligente que les humains et qu’elle échappe à notre contrôle ?

Quels seraient les scénarios possibles où l’IA pourrait causer la destruction de l’humanité ou de la civilisation ?

Quelles seraient les limites et contraintes physiques qu’un système d’IA superintelligent devrait franchir avant de pouvoir “dérailler” ainsi ?

Quels sont selon vous, les critères pour définir une IA superintelligente et malveillante ?

Quels sont les risques réels et actuels de l’IA qui méritent plus d’attention et de recherche ?

Quelles sont les solutions potentielles pour atténuer les dommages causés par l’IA dans des domaines comme la reconnaissance faciale ou la génération d’images ?
Les questions de Noema sont bêtes et dommageables, car elles nous éloignent du cœur du problème: Il n'y a que des enfants (et James Cameron) pour penser à Terminator quand on parle d'IA générative.

Les questions de fond sont plutôt:
  • À qui appartiennent et profitent ces IA?
  • Ces sociétés immensément riches qui possèdent ces IA sont-elles pilotées principalement par l'éthique ou par le profit à tout prix?


Et une fois ces questions répondues, il faut légiférer.
2  1 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 05/01/2024 à 10:04
Faut-il comprendre que les 95% restant, c’est l’homme qui s’auto-détruira tout seul comme un c… ?

1  0 
Avatar de Tadaa
Nouveau Candidat au Club https://www.developpez.com
Le 31/07/2023 à 14:31
L'automatisme va oui écraser un certain nombre d'entre nous sur la terre puisque l'on nous amène à désigner l'automatisation signifiante pour interpeller l'intelligence( mammifère) encore pleine de nouveaux horizons
0  0 
Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 05/01/2024 à 10:50
Citation Envoyé par der§en Voir le message
Faut-il comprendre que les 95% restant, c’est l’homme qui s’auto-détruira tout seul comme un c… ?

Oui l'IA a énormément fait baisser la probabilité que ça arrive quand même avant elle était bien plus élevée.
0  0 
Avatar de foetus
Expert éminent sénior https://www.developpez.com
Le 25/07/2023 à 0:59
Citation Envoyé par kain_tn Voir le message
Les questions de fond sont plutôt:
  • À qui appartiennent et profitent ces IA?
  • Ces sociétés immensément riches qui possèdent ces IA sont-elles pilotées principalement par l'éthique ou par le profit à tout prix?
Rajoute
Comment se protéger des IA en prouvant que ce n'est pas toi ?

En gros, JDG vient de découvrir 1 chaîne YouTube qui le fait chanter des chansons (avec Antoine Daniel) en utilisant 1 IA.
Mais l'IA permet *simplement* d'imiter/ remplacer (des voix, des visages, …) que les arnaques/ phrases hors contexte/ … peuvent devenir légion.

Imagine les attaques de "spoofing" ? (comme Terminator avec la mère de John )

Et je crois que c'est 1 peu le but de la grève des scénaristes à Hollywood actuellement : protéger leur métier contre les IA.
0  1