IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Plus de 800 personnalités, dont les « parrains de l'IA », signent une lettre ouverte demandant l'interdiction du développement de l'IA superintelligente avant que l'humain ne perde le contrôle

Le , par Stéphane le calme

0PARTAGES

4  0 
Plus de 800 personnalités, dont les « parrains de l'IA », signent une lettre ouverte demandant l'interdiction du développement de l'IA superintelligente
avant que l’humain ne perde le contrôle

C’est une alerte planétaire, portée par des voix que l’on croyait divisées. Plus de 800 figures publiques — scientifiques, ingénieurs, entrepreneurs, philosophes, artistes, et même membres de la royauté britannique — se sont unies pour demander l’interdiction pure et simple du développement d’une intelligence artificielle « superintelligente ». Parmi elles, Geoffrey Hinton, Yoshua Bengio, Steve Wozniak, mais aussi Prince Harry et Meghan Markle. L’appel, orchestré par le Future of Life Institute, relance avec force un débat brûlant : l’humanité doit-elle vraiment construire une intelligence plus puissante qu’elle ? Et si oui, qui devrait en avoir le droit ?

Contexte

Les entreprises technologiques se livrent à une course effrénée pour créer une IA superintelligente, sans se soucier des conséquences que pourrait avoir la création d'un être beaucoup plus intelligent que l'être humain. Cela a conduit des centaines de personnalités du monde de la technologie, de la politique, des médias, de l'éducation, de la religion et même de la royauté à signer une lettre ouverte appelant à l'interdiction du développement de la superintelligence jusqu'à ce qu'il y ait à la fois un large consensus scientifique sur le fait qu'elle sera mise en œuvre de manière sûre et contrôlable et un soutien public fort.

La déclaration, organisée par le groupe de sécurité de l'IA Future of Life (FLI), reconnaît que les outils d'IA peuvent avoir des avantages tels qu'une santé et une prospérité sans précédent, mais l'objectif des entreprises de créer au cours de la prochaine décennie une superintelligence capable de surpasser de manière significative tous les humains dans pratiquement toutes les tâches cognitives a suscité des inquiétudes.

Les inquiétudes habituelles ont été évoquées : l'IA prendrait tellement d'emplois qu'elle conduirait à l'obsolescence économique de l'homme, à sa perte de pouvoir, à la perte de liberté, des libertés civiles, de dignité et de contrôle, ainsi qu'à des risques pour la sécurité nationale. Le potentiel d'extinction totale de l'humanité est également mentionné.

Une alliance inédite pour freiner la course à la super-intelligence

La lettre ouverte réunit plus de 800 signataires autour d’un objectif unique : imposer une interdiction mondiale du développement de ce qu’ils appellent la « super-intelligence artificielle », c’est-à-dire une IA capable de surpasser l’homme dans presque tous les domaines cognitifs. Les signataires demandent une prohibition totale, maintenue tant qu’aucun consensus scientifique ni soutien populaire ne garantira une mise en œuvre sûre et contrôlable.

Cette démarche a été initiée par le Future of Life Institute (FLI), déjà à l’origine de la fameuse lettre de 2023 qui appelait à « faire une pause » dans les grands projets d’IA. Mais cette fois, le ton est plus ferme. Il ne s’agit plus de ralentir la recherche, mais bien de tirer un frein d’urgence global.

Citation Envoyé par lettre ouverte
Déclaration sur la superintelligence

Contexte : Les outils innovants d'intelligence artificielle peuvent apporter une santé et une prospérité sans précédent. Cependant, parallèlement à ces outils, de nombreuses entreprises leaders dans le domaine de l'IA ont pour objectif déclaré de développer au cours de la prochaine décennie une superintelligence capable de surpasser considérablement tous les humains dans pratiquement toutes les tâches cognitives. Cela a suscité des inquiétudes, allant de l'obsolescence et de la perte de pouvoir des humains, à la perte de liberté, de libertés civiles, de dignité et de contrôle, en passant par les risques pour la sécurité nationale et même l'extinction potentielle de l'humanité. La déclaration succincte ci-dessous vise à faire connaître le nombre croissant d'experts et de personnalités publiques qui s'opposent à la course à la superintelligence.

Les « parrains de l’IA » sonnent l’alarme

Parmi les signataires, deux figures attirent immédiatement l’attention : Geoffrey Hinton et Yoshua Bengio. Ces chercheurs, récompensés par le prix Turing, sont souvent qualifiés de « parrains de l’IA”. En signant cette lettre, ils envoient un message fort : les mêmes scientifiques qui ont rendu possible la révolution de l’apprentissage profond sont aujourd’hui inquiets des conséquences de leurs propres créations.

À leurs côtés, Steve Wozniak, cofondateur d’Apple, dénonce une industrie qui avance « sans garde-fous ». La présence de figures publiques comme Prince Harry et Meghan Markle renforce la portée politique et symbolique du message. Leur engagement traduit la volonté de déplacer la discussion hors des laboratoires, vers le grand public et les institutions.

Pourquoi maintenant ?

Cette lettre s’inscrit dans un contexte où les grandes entreprises d’IA (OpenAI, Meta, Google DeepMind ou Anthropic) poursuivent une course effrénée vers des modèles toujours plus puissants, parfois comparés à des cerveaux numériques planétaires. Le concept de « super-intelligence » n’est plus un fantasme de science-fiction : il est devenu un objectif explicite pour certaines de ces sociétés.

Les signataires mettent en avant les risques existentiels : perte de contrôle, manipulation sociale, concentration du pouvoir, voire extinction de l’espèce humaine dans les scénarios les plus pessimistes. D’autres alertent sur des conséquences plus immédiates : désinformation massive, chômage technologique, affaiblissement des institutions démocratiques.

La semaine dernière, le FLI a déclaré qu'OpenAI avait émis des assignations à comparaître à son encontre et à l'encontre de son président en guise de représailles pour avoir appelé à une surveillance de l'IA.

Selon un sondage américain réalisé auprès de 2 000 adultes, le mantra de la plupart des entreprises d'IA, « aller vite et casser les codes » en matière de développement technologique, n'est soutenu que par 5 % des personnes interrogées. Près des trois quarts des Américains souhaitent une réglementation stricte de l'IA avancée, et six sur dix estiment qu'elle ne devrait pas être créée tant que sa sécurité ou sa contrôlabilité n'aura pas été prouvée.

Une récente enquête du Pew Center a révélé qu'aux États-Unis, 44 % des personnes font confiance au gouvernement pour réglementer l'IA et 47 % se méfient.

Sam Altman a récemment fait une nouvelle prédiction sur l'arrivée de la superintelligence. Le patron d'OpenAI a déclaré qu'elle serait là d'ici 2030, ajoutant que jusqu'à 40 % des tâches effectuées aujourd'hui dans l'économie seraient prises en charge par l'IA dans un avenir pas très lointain.

Meta se lance également à la poursuite de la superintelligence. Son PDG, Mark Zuckerberg, a déclaré qu'elle était proche et qu'elle « autonomiserait » les individus. La société a récemment divisé son laboratoire Meta Superintelligence Labs en quatre groupes plus petits, ce qui laisse penser que cette technologie pourrait être plus loin que ne le prévoyait Zuckerberg.

Une coalition transversale : tech, royauté et société civile

Ce qui frappe, c’est la diversité des profils. À côté des chercheurs et entrepreneurs, on retrouve des acteurs du monde culturel, des personnalités religieuses et des figures politiques. Cette transversalité donne à la lettre une portée morale et sociale qui dépasse les clivages.

Certains observateurs y voient une nouvelle forme de lobbying éthique, face à des entreprises technologiques devenues plus puissantes que certains États. D’autres saluent une rare tentative de rassembler des consciences autour d’un principe universel de précaution, dans un monde où l’innovation prime souvent sur la prudence.

Les limites de l’initiative

Toutefois, l’appel soulève des questions pratiques : qui fixerait les critères de ce moratoire ? Comment distinguer une « IA avancée » d’une « super-intelligence » ? Et surtout, quelle autorité mondiale pourrait imposer une telle interdiction dans un secteur où la compétition géopolitique entre États-Unis et Chine bat son plein ?

Certains experts jugent cette demande irréaliste. Ils rappellent que la précédente lettre de 2023, appelant à une simple pause, n’a pas eu d’effet concret : OpenAI a poursuivi ses travaux sur GPT-5, Google a lancé Gemini, et les investissements dans les semi-conducteurs ont atteint des records. L’argument de la « prohibition » pourrait, selon eux, renforcer le secret et la fragmentation de la recherche plutôt que la transparence.

Une question de gouvernance mondiale

Au-delà du symbole, la lettre met en lumière un défi de gouvernance inédit. Peut-on réellement encadrer une technologie dont la diffusion est aussi rapide, décentralisée et lucrative ? Certains chercheurs appellent à créer un traité international sur l’IA, équivalent à un “accord nucléaire numérique”. L’idée serait de limiter les capacités de calcul allouées à certains modèles, d’exiger des audits de sécurité et de contrôler les ressources critiques comme les puces et les serveurs.

Mais sans volonté politique mondiale, ces mécanismes risquent de rester théoriques. L’appel de FLI vise justement à créer une pression morale et médiatique, espérant susciter une prise de conscience citoyenne avant que les décisions irréversibles ne soient prises.


Une initiative similaire lancée contre les deepfake

Des experts en intelligence artificielle et des dirigeants d'entreprises, dont Yoshua Bengio, l'un des pionniers de cette technologie, ont signé une lettre ouverte appelant à une plus grande réglementation de la création de deepfakes, en invoquant les risques potentiels pour la société. La lettre contient des recommandations sur la manière de réglementer les deepfakes.

Aujourd'hui, les deepfakes concernent souvent l'imagerie sexuelle, la fraude ou la désinformation politique. « Étant donné que l'IA progresse rapidement et rend la création de deepfakes beaucoup plus facile, des garde-fous sont nécessaires », indique le groupe dans la lettre, rédigée par Andrew Critch, chercheur en IA à l'université de Berkeley.

Les deepfakes sont des images, des sons et des vidéos réalistes mais fabriqués par des algorithmes d'IA, et les progrès récents de la technologie les rendent de plus en plus impossibles à distinguer des contenus créés par des humains.

La lettre, intitulée « Disrupting the Deepfake Supply Chain », contient des recommandations sur la manière de réglementer les deepfakes, notamment la criminalisation totale de la pédopornographie par deepfake, des sanctions pénales pour toute personne créant ou facilitant sciemment la diffusion de deepfakes nuisibles et l'obligation pour les entreprises d'IA d'empêcher leurs produits de créer des deepfakes nuisibles.

Plus de 400 personnes issues de différents secteurs, notamment du monde universitaire, du spectacle et de la politique, avaient signé la lettre. Parmi les signataires figurent Steven Pinker, professeur de psychologie à Harvard, Joy Buolamwini, fondatrice de l'Algorithmic Justice League, deux anciens présidents estoniens, des chercheurs de Google DeepMind et un chercheur d'OpenAI.

Veiller à ce que les systèmes d'IA ne nuisent pas à la société est une priorité pour les régulateurs depuis qu'OpenAI, soutenue par Microsoft, a dévoilé ChatGPT fin 2022, qui a séduit les utilisateurs en les faisant participer à des conversations semblables à celles des humains et en effectuant d'autres tâches. De nombreuses personnalités ont mis en garde contre les risques liés à l'IA.

Faut-il vraiment interdire la super-intelligence ?

Derrière la lettre, une tension demeure : faut-il interdire ou réguler ? La nuance est capitale. Une interdiction totale pourrait freiner des innovations cruciales, par exemple dans la médecine, l’environnement ou la recherche scientifique. Mais l’absence de garde-fous ouvrirait la voie à des dérives incontrôlables. L’histoire des technologies montre que les interdictions absolues sont rares et souvent temporaires. Peut-être que cette lettre ne vise pas une interdiction définitive, mais un temps de réflexion collectif : un signal d’alarme avant que la machine ne devienne littéralement plus intelligente que son créateur.

Cette lettre ouverte pourrait bien rester un texte symbolique, mais son écho est déjà mondial. En unissant les voix de scientifiques, d’entrepreneurs et de figures publiques, elle marque une étape cruciale dans la prise de conscience. Qu’on y voie un geste utopique ou une nécessité absolue, le message est clair : l’avenir de l’IA ne peut pas se décider dans le secret des laboratoires. Il appartient désormais à l’humanité tout entière d’en fixer les limites, avant que ces limites ne nous échappent.

Source : lettre ouverte

Et vous ?

Interdire la super-intelligence est-il un acte de sagesse… ou une peur irrationnelle du progrès ?

Peut-on réellement freiner une technologie mondiale sans créer de clandestinité scientifique ?

Les États ont-ils encore le pouvoir de contrôler des entreprises privées capables de rivaliser avec eux sur le plan technologique ?

Les « pères de l’IA » sont-ils les mieux placés pour définir les limites de ce qu’ils ont eux-mêmes créé ?

Le risque existentiel de l’IA est-il plus urgent que les risques déjà visibles : désinformation, chômage, dépendance numérique ?

Voir aussi :

Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire

Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société
Vous avez lu gratuitement 16 467 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/10/2025 à 0:05
Belle hypocrisie ou naïveté de ces 800 "bien-pensants", c'est selon!

1. Parmi les 800 signataires, il y a de nombreux "chercheurs" qui ont été à l'origine de l'IA. Si il y avait des risques, il ne fallait pas commencer ce genre de développement!

2. Une fois qu'une découverte arrive dans les mains des financiers, plus rien ne l'arrête... C'est la fuite en avant... L'appel de l'argent balaie tout: L'éthique, la morale, la moindre précaution

3. Il ira de l'IA comme des armes de guerre: Il n'y a pas un seul exemple dans l'histoire d'une arme qui aurait été inventée et qui n'a pas fini par être utilisée pour tuer son prochain.
0  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 23/10/2025 à 5:40
C'est donc 800 personnes qui ne savent même pas ce qu'est l'IA, car jusqu'à preuve du contraire, l'IA n'est en rien intelligente et les modèles actuels n'arriveront jamais à cet état.
0  0