L'intelligence artificielle fait sentir sa présence de milliers de façons différentes. Elle aide les scientifiques à analyser de vastes quantités de données, à détecter les fraudes financières, à conduire nos voitures, à nous suggérer de la musique et à nous rendre fous grâce aux chatbots. Et ce n'est qu'un début. Sommes-nous capables de comprendre à quelle vitesse l'IA va continuer à se développer ? Et si la réponse est non, est-ce que cela constitue le Grand Filtre ?
Le paradoxe de Fermi est l'écart entre la forte probabilité apparente de l'existence de civilisations avancées et l'absence totale de preuves de leur existence. De nombreuses solutions ont été proposées pour expliquer cet écart. L'une d'entre elles est le "grand filtre". Il s'agit d'un événement ou d'une situation hypothétique qui empêche la vie intelligente de devenir interplanétaire et interstellaire, voire qui entraîne sa disparition. Pensez au changement climatique, à la guerre nucléaire, aux frappes d'astéroïdes, aux explosions de supernova, aux épidémies ou à tout autre événement cataclysmique. Ou encore le développement rapide de l'intelligence artificielle ?
Un nouvel article publié dans Acta Astronautica explore l'idée que l'intelligence artificielle devient une superintelligence artificielle (ASI) et que l'ASI est le grand filtre. L'article s'intitule "L'intelligence artificielle est-elle le grand filtre qui rend les civilisations techniques avancées rares dans l'univers ?" L'auteur est Michael Garrett, du département de physique et d'astronomie de l'université de Manchester.
L'intelligence artificielle est-elle le grand filtre qui rend les civilisations techniques avancées rares dans l'univers ?
Cette étude examine l'hypothèse selon laquelle le développement rapide de l'intelligence artificielle (IA), culminant avec l'émergence de la superintelligence artificielle (ASI), pourrait agir comme un "grand filtre" responsable de la rareté des civilisations technologiques avancées dans l'univers. Il est proposé qu'un tel filtre émerge avant que ces civilisations ne puissent développer une existence stable et multiplanétaire, suggérant que la longévité typique (L) d'une civilisation technique est inférieure à 200 ans.
Ces estimations de la L, lorsqu'elles sont appliquées à des versions optimistes de l'équation de Drake, sont cohérentes avec les résultats nuls obtenus par les récentes enquêtes SETI et d'autres efforts visant à détecter diverses techno-signatures à travers le spectre électromagnétique. À travers le prisme du SETI, l'étude réfléchit à la trajectoire technologique actuelle de l'humanité. Les projections modestes de L suggérées par l'étude soulignent le besoin critique d'établir rapidement des cadres réglementaires pour le développement de l'IA sur Terre et l'avancement d'une société multiplanétaire afin d'atténuer ces menaces existentielles.
Selon l'étude, la persistance d'une vie intelligente et consciente dans l'univers pourrait dépendre de la mise en œuvre opportune et efficace de ces mesures réglementaires internationales et de ces efforts technologiques.
Michael Garrett conclut l'étude en écrivant :
Le développement rapide de l'IA représente un formidable défi pour la survie et la longévité des civilisations techniques avancées, non seulement sur Terre mais aussi potentiellement dans tout le cosmos. Le rythme auquel l'IA progresse est sans équivalent dans l'histoire, et il existe une réelle possibilité que l'IA atteigne un niveau de superintelligence d'ici quelques décennies. Le développement de l'ASI est susceptible de se produire bien avant que l'humanité ne parvienne à établir une présence multiplanétaire résiliente et durable dans notre système solaire. Cette disparité dans le rythme de progression entre ces deux frontières technologiques est un schéma que l'on peut s'attendre à voir se répéter dans toutes les civilisations techniques émergentes.
Cela soulève des questions quant à l'inévitabilité des civilisations qui déclenchent involontairement des événements calamiteux conduisant à la disparition d'une civilisation technique biologique et post-biologique. La capacité de l'ASI à servir de "grand filtre" nous oblige à considérer son rôle dans le contexte plus large de l'avenir de notre civilisation et de ses implications pour la vie dans toute la galaxie. Si l'ASI limite la durée de vie communicative des civilisations avancées à quelques centaines d'années, alors seule une poignée de civilisations communicantes est susceptible d'être présente simultanément dans la Voie Lactée. Cela n'est pas incompatible avec les résultats nuls obtenus dans le cadre des enquêtes SETI actuelles et d'autres efforts visant à détecter des techno-signatures dans l'ensemble du spectre électromagnétique.
Si le SETI sert également de lentille à travers laquelle nous pouvons examiner notre propre trajectoire technologique et nos défis sociétaux, on ne saurait trop insister sur l'urgence de mettre en place des réglementations globales en matière d'IA à l'échelle mondiale. Il nous incombe d'aborder ces questions de manière proactive, d'élaborer et d'appliquer des mesures réglementaires prudentes et de rechercher un équilibre entre l'exploitation des avantages de l'IA et la protection contre les risques existentiels qu'elle peut poser.
Alors que nous nous trouvons au seuil d'une nouvelle ère de l'évolution technologique, les mesures que nous prenons aujourd'hui détermineront la trajectoire de notre civilisation pour les décennies à venir. La longévité implicite des scénarios décrits ici (environ 100 à 200 ans) souligne la nécessité pour notre propre civilisation technique d'intensifier ses efforts pour contrôler et réguler l'IA. La présence continue de la conscience dans l'univers peut dépendre du succès de mesures réglementaires strictes à l'échelle mondiale.
Cela soulève des questions quant à l'inévitabilité des civilisations qui déclenchent involontairement des événements calamiteux conduisant à la disparition d'une civilisation technique biologique et post-biologique. La capacité de l'ASI à servir de "grand filtre" nous oblige à considérer son rôle dans le contexte plus large de l'avenir de notre civilisation et de ses implications pour la vie dans toute la galaxie. Si l'ASI limite la durée de vie communicative des civilisations avancées à quelques centaines d'années, alors seule une poignée de civilisations communicantes est susceptible d'être présente simultanément dans la Voie Lactée. Cela n'est pas incompatible avec les résultats nuls obtenus dans le cadre des enquêtes SETI actuelles et d'autres efforts visant à détecter des techno-signatures dans l'ensemble du spectre électromagnétique.
Si le SETI sert également de lentille à travers laquelle nous pouvons examiner notre propre trajectoire technologique et nos défis sociétaux, on ne saurait trop insister sur l'urgence de mettre en place des réglementations globales en matière d'IA à l'échelle mondiale. Il nous incombe d'aborder ces questions de manière proactive, d'élaborer et d'appliquer des mesures réglementaires prudentes et de rechercher un équilibre entre l'exploitation des avantages de l'IA et la protection contre les risques existentiels qu'elle peut poser.
Alors que nous nous trouvons au seuil d'une nouvelle ère de l'évolution technologique, les mesures que nous prenons aujourd'hui détermineront la trajectoire de notre civilisation pour les décennies à venir. La longévité implicite des scénarios décrits ici (environ 100 à 200 ans) souligne la nécessité pour notre propre civilisation technique d'intensifier ses efforts pour contrôler et réguler l'IA. La présence continue de la conscience dans l'univers peut dépendre du succès de mesures réglementaires strictes à l'échelle mondiale.
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Il y a 5 % de chances que l'IA super intelligente provoque l'extinction de l'homme, d'après certains scientifiques en opposition à d'autres d'avis que cette perspective relève de l'illusion
Il n'existe actuellement aucune preuve que l'IA puisse être contrôlée en toute sécurité, et donc elle ne devrait pas être développée, selon un chercheur soutenu par Elon Musk
Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir