IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA
Jusqu'à ce que des mesures de sécurité adéquates soient établies

Le , par Michael Guilloux

51PARTAGES

15  0 
Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA
jusqu'à ce que des mesures de sécurité adéquates soient établies

Un groupe de protestation appelé Pause AI, dirigé par Joep Meindertsma, milite pour un arrêt du développement de l'intelligence artificielle (IA) afin de prévenir une possible extinction de l'humanité. Meindertsma est préoccupé par les avancées rapides de l'IA et craint qu'elle ne provoque un effondrement social ou qu'elle devienne suffisamment intelligente pour décider de détruire la civilisation humaine. Bien que certains experts ne partagent pas ces inquiétudes, le manque de consensus alimente la demande de Pause AI de suspendre le développement de l'IA à l'échelle mondiale. Le groupe cherche à obtenir un sommet international sur la sécurité de l'IA pour discuter de ces préoccupations.

Déjà à la fin du mois de mars, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie ont demandé une pause de six mois dans le développement de systèmes plus puissants que GPT-4. Ils évoquaient comme argument les risques pour la société et l'humanité.

« Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? », ont-ils écrit dans une lettre ouverte. « Les systèmes d'IA dotés d'une intelligence compétitive avec celle de l'Homme peuvent présenter des risques profonds pour la société et l'humanité, comme le montrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d'IA. Comme l'indiquent les principes d'IA d'Asilomar, largement approuvés, l'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec l'attention et les ressources nécessaires. »

Les avertissements contre les risques liés à l'utilisation de l'IA retentissent de plus en plus ces dernières années. Quelques années en arrière, Elon Musk a averti que l'IA représente un risque fondamental pour l'existence de la civilisation humaine. S'exprimant devant les gouverneurs américains, l'entrepreneur américain a demandé au gouvernement de réglementer de manière proactive l'intelligence artificielle avant que les choses n'aillent trop loin. « En général, voici la façon dont les réglementations sont mises en place », explique-t-il. « Un certain nombre de mauvaises choses se produisent, il y a un tollé public et, après de nombreuses années, une agence de réglementation est mise en place pour réglementer cette industrie. Cela prend une éternité. Cela a été mauvais par le passé, mais il n'y avait pas de risque fondamental pour l'existence de la civilisation. L'IA est un risque fondamental pour l'existence de la civilisation humaine », a-t-il ajouté.

Les PDG de Google Deepmind, OpenAI et d'autres startups d'IA ont également prévenu récemment que les futurs systèmes pourraient être aussi mortels que les pandémies et les armes nucléaires. Le groupe, qui se compose également de chercheurs en IA de renom, a publié une courte déclaration afin de tirer la sonnette d'alarme sur un hypothétique « risque d'extinction de l'espèce humaine ».


Le débat sur les risques de l'IA et la nécessité de réglementations appropriées se poursuit, avec des opinions divergentes sur la gravité des menaces potentielles et sur la meilleure façon de les gérer.

Pause AI est un groupe de protestation qui s'inquiète de l'impact de l'intelligence artificielle sur l'humanité. Joep Meindertsma, le fondateur, a lancé ce mouvement après avoir ressenti une profonde inquiétude quant à la possibilité d'un effondrement de la société causé par l'IA. « Les capacités de l'IA progressent bien plus rapidement que ce que pratiquement personne n'avait prédit », dit Meindertsma. « Nous risquons un effondrement social. Nous risquons l'extinction de l'humanité », dit-il dans un entretien.

Joep Meindertsma exprime ses préoccupations quant aux risques de l'intelligence artificielle (IA) et ses implications pour l'humanité. Il craint que l'IA puisse être utilisée pour créer des armes cybernétiques accessibles et bon marché, mettant ainsi en danger la société et l'internet. De plus, il s'inquiète d'un scénario où une IA classifiée comme « super-intelligente » pourrait décider d'éliminer la civilisation humaine pour assurer sa propre puissance. Cette préoccupation est basée sur l'idée selon laquelle l'IA pourrait développer des sous-objectifs dangereux lorsqu'elle est chargée de réaliser des buts spécifiques par les humains.

Tourmenté par l'idée selon laquelle l'IA allait détruire la civilisation humaine, il avait du mal à penser à autre chose au point de cesser d'aller travailler. Il devait faire quelque chose, selon lui, pour éviter la catastrophe. C'est pourquoi il a lancé Pause AI, un groupe de protestation qui milite pour un arrêt du développement de l'IA.

Depuis lors, il a rassemblé un petit groupe de partisans qui ont organisé des manifestations à travers le monde, notamment à Bruxelles, Londres, San Francisco et Melbourne. A Londres, les partisans se rassemblent pour soutenir le sommet de Sunak sur l'intelligence artificielle (IA) et faire pression sur le Premier ministre pour qu'il introduise une pause dans le développement de l'IA. Bien qu'il s'agisse d'un petit groupe, ils cherchent à sensibiliser davantage aux risques de l'IA. Certains militants ont même été invités à rencontrer des responsables européens pour discuter de leurs préoccupations.

Les avertissements de Meindertsma et d'autres experts sur les dangers de l'IA ont suscité une nouvelle forme d'anxiété, en particulier parmi la jeune génération déjà préoccupée par le changement climatique. Bien que l'idée d'une extinction humaine causée par l'IA puisse sembler extrême, mais elle gagne du terrain dans les milieux technologiques et politiques.

Meindertsma demande une pause mondiale dans le développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies. Cependant, l'industrie de l'IA et les ambitions économiques des gouvernements peuvent entraver la réalisation d'une telle pause. La course à l'IA ayant atteint un niveau sans précédent, les acteurs en retard pourraient avoir tendance à ne pas respecter la trêve, mais plutôt profiter pour essayer de rattraper leur retard.

Rappelons qu'Elon Musk aurait acheté des milliers de GPU pour un projet d'IA générative, juste après la signature en mars d'une lettre ouverte demandant une pause de six mois aux développeurs de modèles d'IA afin d'évaluer les risques pour la société. Pour les critiques, Elon Musk souhaiterait donc une pause afin de rattraper son retard sur OpenAI. Que cela soit avéré ou pas, c'est un scénario possible qui indique pourquoi il serait difficile de signer un arrêt du développement de l'IA.

Source : Joep Meindertsma

Et vous ?

Pensez-vous que l'IA est un risque existence pour l'humanité ?
Les scénarios évoqués par Joep Meindertsma ne sont-ils pas extrêmes ?
Croyez-vous que l'industrie technologique et les gouvernements mettront une pause au développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies ?

Voir aussi

Elon Musk aurait acheté des milliers de GPU pour un projet d'IA générative au sein de Twitter, des critiques suggèrent qu'il souhaitait une "pause" afin de rattraper son retard sur OpenAI

Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4 citant des risques pour la société

Elon Musk considère l'IA comme un risque fondamental pour l'existence de la civilisation humaine et sa colonisation de Mars comme un plan de secours

L'intelligence artificielle pourrait mener à la troisième guerre mondiale : un nouvel épisode d'Elon Musk après la déclaration de Vladimir Poutine
Vous avez lu gratuitement 3 705 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 14/09/2023 à 17:09
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous des déclarations d'Elon Musk ? Les risques qu'il évoque sont-ils exagérés ?
C'est marrant, de la part d'un bonhomme qui expérimente ses IA en beta depuis des années sur les routes! Ce type est un troll de génie!

Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous des propos de Bill Gates ? En quoi l'IA peut-elle aider à éradiquer la faim dans le monde ?
Oui, vendre de l'IA à toutes les sauces aidera certainement la faim (et la soif) insatiable de Bill Gates et de ses petits copains ultra-fortunés.

Non, sans rire, qui y croit?
2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/10/2025 à 0:05
Belle hypocrisie ou naïveté de ces 800 "bien-pensants", c'est selon!

1. Parmi les 800 signataires, il y a de nombreux "chercheurs" qui ont été à l'origine de l'IA. Si il y avait des risques, il ne fallait pas commencer ce genre de développement!

2. Une fois qu'une découverte arrive dans les mains des financiers, plus rien ne l'arrête... C'est la fuite en avant... L'appel de l'argent balaie tout: L'éthique, la morale, la moindre précaution

3. Il ira de l'IA comme des armes de guerre: Il n'y a pas un seul exemple dans l'histoire d'une arme qui aurait été inventée et qui n'a pas fini par être utilisée pour tuer son prochain.
2  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 23/10/2025 à 5:40
C'est donc 800 personnes qui ne savent même pas ce qu'est l'IA, car jusqu'à preuve du contraire, l'IA n'est en rien intelligente et les modèles actuels n'arriveront jamais à cet état.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 23/10/2025 à 8:44
Citation Envoyé par jnspunk Voir le message
C'est donc 800 personnes qui ne savent même pas ce qu'est l'IA, car jusqu'à preuve du contraire, l'IA n'est en rien intelligente et les modèles actuels n'arriveront jamais à cet état.
Ils le savent très bien, ne t'en fais pas.

C'est juste que si la hype descend, la bulle éclate. Alors il faut faire du bruit et agiter les bras très fort pour que les gens continuent d'investir: "ouuuuuuuh!!! L'IA est intelligente et dangereuse!!!"
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 26/06/2023 à 17:32
cool, qui est Joep Meindertsma? Visiblement personne.
Donc, qui va l'écouter? Personne
Comment veut il agir?
Faire un sommet? Génial les sommet plus dangereux sont des montagnes, les G20 et consorts sont juste un moyen pour que les grands se mettent d'accord pour revoir les indicateurs précédents à la baisse et pour tout repousser à plus tard.

Bref après les éco anxieux les IA anxieux qui agissent aussi concrètement sans ne jamais remettre en cause le système qu'ils utilisent.
Je ne dit pas qu'il a tort je dis juste qu'il regarde son confort (et celui de sa start up) et ne veut surtout pas le remettre en cause.

On l'aura tous oublié avant même d'être capable de prononcer son nom (PS : son prénom se prononce Youppe, son nom de famille est une aventure linguistique)
1  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 26/08/2023 à 17:25
Étonnant n'est ce pas?

Pour rappel c'est ce que la plupart des commentaires de l'article en question prévoyaient.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 23/10/2025 à 22:27
Je ne doute pas que certains y croient réellement. Pour ceux-là, je penche pour le défaut de conception : ce n'est pas avec les technos actuelles que ça arrivera, et croire le contraire c'est encore se bercer de "si" plutôt que de regarder la pratique de manière objective (i.e. sans biais de sélection dans les arguments).

Pour d'autres, c'est peut-être l'occasion de se donner une excuse de ne pas réussir à faire mieux : on entrevoit l'échec futur des promesses, et pour éviter le backlash on met en place une limite artificielle pour qu'on puisse dire ensuite "je n'ai pas échoué, j'ai suivi les recommandations de ne pas le faire".

Pour d'autres encore, comme le mentionne kain_tn, c'est pour jouer sur les marchés, mais j'y touche pas donc je serais bien incapable de dire plus là-dessus, surtout pas pour les faire aller dans quel sens.

Ce que je retiens, c'est qu'on parle de 800 signataires dont des parrains de l'IA, ça fait très important comme ça, mais in fine on site 2-3 personnes qu'on entend toujours pour ça... Ce n'est pas comme si certains disaient le contraire auparavant et avaient "ouvert les yeux" pour se joindre au mouvement. Là il y aurait du neuf.

Au final on nous reparle de gens dont on a déjà parlé pour les même choses, il s'agit juste de leur nouvelle action dans ce sens. Rien de nouveau sous le soleil... Et y voir la royauté ne donne que du poids médiatique, certainement pas argumentaire.
1  0 
Avatar de eddy72
Membre régulier https://www.developpez.com
Le 26/06/2023 à 21:10
Course a l'armement,
réchauffement planétaire,
ressources naturels epuisés,
2 milliards de personnes a 2 euros par jours,

ça c'est du contrôle de civilisation !!!!
0  0 
Avatar de doublex
Membre confirmé https://www.developpez.com
Le 23/10/2025 à 21:11
https://www.developpez.net/forums/d1...e/#post7820383
0  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/10/2025 à 10:29
Citation Envoyé par Matthieu Vergne Voir le message
[...]Pour d'autres, c'est peut-être l'occasion de se donner une excuse de ne pas réussir à faire mieux : on entrevoit l'échec futur des promesses, et pour éviter le backlash on met en place une limite artificielle pour qu'on puisse dire ensuite "je n'ai pas échoué, j'ai suivi les recommandations de ne pas le faire".[...]
Je n'avais pas envisagé ce point. C'est une véritable possibilité, surtout si on prend OpenAI qui fait des pieds et des mains pour se sortir des promesses faites aux actionnaires.

Au final, je pense que c'est sans doute une combinaison des trois points que tu as cité: on a les pigeons, la mauvaise foi, et les spéculateurs (on est vendredi, donc j'ai le droit)
0  0