IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA pourrait expliquer pourquoi on ne rencontre pas d'extraterrestres
Une étude suggère que l'IA est le grand filtre qui fait que les civilisations techniques avancées sont rares dans l'univers

Le , par Jade Emy

4PARTAGES

4  0 
Selon une étude, l'IA pourrait expliquer pourquoi nous ne rencontrons pas d'extraterrestres. L'IA pourrait signifier la fin de l'intelligence sur Terre (y compris l'IA) avant que des stratégies d'atténuation n'aient été mises en place.

L'intelligence artificielle fait sentir sa présence de milliers de façons différentes. Elle aide les scientifiques à analyser de vastes quantités de données, à détecter les fraudes financières, à conduire nos voitures, à nous suggérer de la musique et à nous rendre fous grâce aux chatbots. Et ce n'est qu'un début. Sommes-nous capables de comprendre à quelle vitesse l'IA va continuer à se développer ? Et si la réponse est non, est-ce que cela constitue le Grand Filtre ?

Le paradoxe de Fermi est l'écart entre la forte probabilité apparente de l'existence de civilisations avancées et l'absence totale de preuves de leur existence. De nombreuses solutions ont été proposées pour expliquer cet écart. L'une d'entre elles est le "grand filtre". Il s'agit d'un événement ou d'une situation hypothétique qui empêche la vie intelligente de devenir interplanétaire et interstellaire, voire qui entraîne sa disparition. Pensez au changement climatique, à la guerre nucléaire, aux frappes d'astéroïdes, aux explosions de supernova, aux épidémies ou à tout autre événement cataclysmique. Ou encore le développement rapide de l'intelligence artificielle ?

Un nouvel article publié dans Acta Astronautica explore l'idée que l'intelligence artificielle devient une superintelligence artificielle (ASI) et que l'ASI est le grand filtre. L'article s'intitule "L'intelligence artificielle est-elle le grand filtre qui rend les civilisations techniques avancées rares dans l'univers ?" L'auteur est Michael Garrett, du département de physique et d'astronomie de l'université de Manchester.


L'intelligence artificielle est-elle le grand filtre qui rend les civilisations techniques avancées rares dans l'univers ?

Cette étude examine l'hypothèse selon laquelle le développement rapide de l'intelligence artificielle (IA), culminant avec l'émergence de la superintelligence artificielle (ASI), pourrait agir comme un "grand filtre" responsable de la rareté des civilisations technologiques avancées dans l'univers. Il est proposé qu'un tel filtre émerge avant que ces civilisations ne puissent développer une existence stable et multiplanétaire, suggérant que la longévité typique (L) d'une civilisation technique est inférieure à 200 ans.

Ces estimations de la L, lorsqu'elles sont appliquées à des versions optimistes de l'équation de Drake, sont cohérentes avec les résultats nuls obtenus par les récentes enquêtes SETI et d'autres efforts visant à détecter diverses techno-signatures à travers le spectre électromagnétique. À travers le prisme du SETI, l'étude réfléchit à la trajectoire technologique actuelle de l'humanité. Les projections modestes de L suggérées par l'étude soulignent le besoin critique d'établir rapidement des cadres réglementaires pour le développement de l'IA sur Terre et l'avancement d'une société multiplanétaire afin d'atténuer ces menaces existentielles.

Selon l'étude, la persistance d'une vie intelligente et consciente dans l'univers pourrait dépendre de la mise en œuvre opportune et efficace de ces mesures réglementaires internationales et de ces efforts technologiques.

Michael Garrett conclut l'étude en écrivant :

Le développement rapide de l'IA représente un formidable défi pour la survie et la longévité des civilisations techniques avancées, non seulement sur Terre mais aussi potentiellement dans tout le cosmos. Le rythme auquel l'IA progresse est sans équivalent dans l'histoire, et il existe une réelle possibilité que l'IA atteigne un niveau de superintelligence d'ici quelques décennies. Le développement de l'ASI est susceptible de se produire bien avant que l'humanité ne parvienne à établir une présence multiplanétaire résiliente et durable dans notre système solaire. Cette disparité dans le rythme de progression entre ces deux frontières technologiques est un schéma que l'on peut s'attendre à voir se répéter dans toutes les civilisations techniques émergentes.

Cela soulève des questions quant à l'inévitabilité des civilisations qui déclenchent involontairement des événements calamiteux conduisant à la disparition d'une civilisation technique biologique et post-biologique. La capacité de l'ASI à servir de "grand filtre" nous oblige à considérer son rôle dans le contexte plus large de l'avenir de notre civilisation et de ses implications pour la vie dans toute la galaxie. Si l'ASI limite la durée de vie communicative des civilisations avancées à quelques centaines d'années, alors seule une poignée de civilisations communicantes est susceptible d'être présente simultanément dans la Voie Lactée. Cela n'est pas incompatible avec les résultats nuls obtenus dans le cadre des enquêtes SETI actuelles et d'autres efforts visant à détecter des techno-signatures dans l'ensemble du spectre électromagnétique.

Si le SETI sert également de lentille à travers laquelle nous pouvons examiner notre propre trajectoire technologique et nos défis sociétaux, on ne saurait trop insister sur l'urgence de mettre en place des réglementations globales en matière d'IA à l'échelle mondiale. Il nous incombe d'aborder ces questions de manière proactive, d'élaborer et d'appliquer des mesures réglementaires prudentes et de rechercher un équilibre entre l'exploitation des avantages de l'IA et la protection contre les risques existentiels qu'elle peut poser.

Alors que nous nous trouvons au seuil d'une nouvelle ère de l'évolution technologique, les mesures que nous prenons aujourd'hui détermineront la trajectoire de notre civilisation pour les décennies à venir. La longévité implicite des scénarios décrits ici (environ 100 à 200 ans) souligne la nécessité pour notre propre civilisation technique d'intensifier ses efforts pour contrôler et réguler l'IA. La présence continue de la conscience dans l'univers peut dépendre du succès de mesures réglementaires strictes à l'échelle mondiale.
Source : "Is artificial intelligence the great filter that makes advanced technical civilisations rare in the universe?" (Michael Garrett)

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Il y a 5 % de chances que l'IA super intelligente provoque l'extinction de l'homme, d'après certains scientifiques en opposition à d'autres d'avis que cette perspective relève de l'illusion

Il n'existe actuellement aucune preuve que l'IA puisse être contrôlée en toute sécurité, et donc elle ne devrait pas être développée, selon un chercheur soutenu par Elon Musk

Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 15/04/2024 à 16:27
Citation Envoyé par Eric80 Voir le message
Que de théories complexes pour un constat tout simple: les distances énormes entre les étoiles et galaxies expliquent plus simplement qu'une rencontre physique est très peu probable. Et même une détection d'ondes (programme SETI) a peu de chances d aboutir dans l immensité de l univers.

Vous pouvez y ajouter un autre point: En 4,5 milliards d'existence de la Terre, cela ne fait qu'un peu plus de 100 ans qu'un être (dit "évolué" y a atteint le niveau technologique pour être capable de recevoir et d'émettre des signaux radio (c'est en 1895 que Guglielmo Marconi expérimente les premières liaisons hertziennes).... Et vu qu'en moins de 100 ans, on a appris à voler et à se détruire à coup de bombes nucléaire, il y a peu de chance pour que cette période "éclairée" dure encore bien longtemps...

Conclusion? Il faudrait non seulement que 2 civilisations soient suffisamment proches mais encore que leur niveau technologique soit en phase pour être en mesure de s'entendre, 100 ans de plus, 100 ans de moins et ces sympathiques extra-terrestres envoient un message à destination des dinosaures ou encore d'un chevalier en armure
3  0 
Avatar de Eric80
Membre éclairé https://www.developpez.com
Le 15/04/2024 à 15:41
Que de théories complexes pour un constat tout simple: les distances énormes entre les étoiles et galaxies expliquent plus simplement qu'une rencontre physique est très peu probable. Et même une détection d'ondes (programme SETI) a peu de chances d aboutir dans l immensité de l univers.
2  0