
avant que l’humain ne perde le contrôle
C’est une alerte planétaire, portée par des voix que l’on croyait divisées. Plus de 800 figures publiques — scientifiques, ingénieurs, entrepreneurs, philosophes, artistes, et même membres de la royauté britannique — se sont unies pour demander l’interdiction pure et simple du développement d’une intelligence artificielle « superintelligente ». Parmi elles, Geoffrey Hinton, Yoshua Bengio, Steve Wozniak, mais aussi Prince Harry et Meghan Markle. L’appel, orchestré par le Future of Life Institute, relance avec force un débat brûlant : l’humanité doit-elle vraiment construire une intelligence plus puissante qu’elle ? Et si oui, qui devrait en avoir le droit ?
Contexte
Les entreprises technologiques se livrent à une course effrénée pour créer une IA superintelligente, sans se soucier des conséquences que pourrait avoir la création d'un être beaucoup plus intelligent que l'être humain. Cela a conduit des centaines de personnalités du monde de la technologie, de la politique, des médias, de l'éducation, de la religion et même de la royauté à signer une lettre ouverte appelant à l'interdiction du développement de la superintelligence jusqu'à ce qu'il y ait à la fois un large consensus scientifique sur le fait qu'elle sera mise en œuvre de manière sûre et contrôlable et un soutien public fort.
La déclaration, organisée par le groupe de sécurité de l'IA Future of Life (FLI), reconnaît que les outils d'IA peuvent avoir des avantages tels qu'une santé et une prospérité sans précédent, mais l'objectif des entreprises de créer au cours de la prochaine décennie une superintelligence capable de surpasser de manière significative tous les humains dans pratiquement toutes les tâches cognitives a suscité des inquiétudes.
Les inquiétudes habituelles ont été évoquées : l'IA prendrait tellement d'emplois qu'elle conduirait à l'obsolescence économique de l'homme, à sa perte de pouvoir, à la perte de liberté, des libertés civiles, de dignité et de contrôle, ainsi qu'à des risques pour la sécurité nationale. Le potentiel d'extinction totale de l'humanité est également mentionné.
Une alliance inédite pour freiner la course à la super-intelligence
La lettre ouverte réunit plus de 800 signataires autour d’un objectif unique : imposer une interdiction mondiale du développement de ce qu’ils appellent la « super-intelligence artificielle », c’est-à-dire une IA capable de surpasser l’homme dans presque tous les domaines cognitifs. Les signataires demandent une prohibition totale, maintenue tant qu’aucun consensus scientifique ni soutien populaire ne garantira une mise en œuvre sûre et contrôlable.
Cette démarche a été initiée par le Future of Life Institute (FLI), déjà à l’origine de la fameuse lettre de 2023 qui appelait à « faire une pause » dans les grands projets d’IA. Mais cette fois, le ton est plus ferme. Il ne s’agit plus de ralentir la recherche, mais bien de tirer un frein d’urgence global.

Les « parrains de l’IA » sonnent l’alarme
Parmi les signataires, deux figures attirent immédiatement l’attention : Geoffrey Hinton et Yoshua Bengio. Ces chercheurs, récompensés par le prix Turing, sont souvent qualifiés de « parrains de l’IA”. En signant cette lettre, ils envoient un message fort : les mêmes scientifiques qui ont rendu possible la révolution de l’apprentissage profond sont aujourd’hui inquiets des conséquences de leurs propres créations.
À leurs côtés, Steve Wozniak, cofondateur d’Apple, dénonce une industrie qui avance « sans garde-fous ». La présence de figures publiques comme Prince Harry et Meghan Markle renforce la portée politique et symbolique du message. Leur engagement traduit la volonté de déplacer la discussion hors des laboratoires, vers le grand public et les institutions.
Pourquoi maintenant ?
Cette lettre s’inscrit dans un contexte où les grandes entreprises d’IA (OpenAI, Meta, Google DeepMind ou Anthropic) poursuivent une course effrénée vers des modèles toujours plus puissants, parfois comparés à des cerveaux numériques planétaires. Le concept de « super-intelligence » n’est plus un fantasme de science-fiction : il est devenu un objectif explicite pour certaines de ces sociétés.
Les signataires mettent en avant les risques existentiels : perte de contrôle, manipulation sociale, concentration du pouvoir, voire extinction de l’espèce humaine dans les scénarios les plus pessimistes. D’autres alertent sur des conséquences plus immédiates : désinformation massive, chômage technologique, affaiblissement des institutions démocratiques.
La semaine dernière, le FLI a déclaré qu'OpenAI avait émis des assignations à comparaître à son encontre et à l'encontre de son président en guise de représailles pour avoir appelé à une surveillance de l'IA.
Selon un sondage américain réalisé auprès de 2 000 adultes, le mantra de la plupart des entreprises d'IA, « aller vite et casser les codes » en matière de développement technologique, n'est soutenu que par 5 % des personnes interrogées. Près des trois quarts des Américains souhaitent une réglementation stricte de l'IA avancée, et six sur dix estiment qu'elle ne devrait pas être créée tant que sa sécurité ou sa contrôlabilité n'aura pas été prouvée.
Une récente enquête du Pew Center a révélé qu'aux États-Unis, 44 % des personnes font confiance au gouvernement pour réglementer l'IA et 47 % se méfient.
Sam Altman a récemment fait une nouvelle prédiction sur l'arrivée de la superintelligence. Le patron d'OpenAI a déclaré qu'elle serait là d'ici 2030, ajoutant que jusqu'à 40 % des tâches effectuées aujourd'hui dans l'économie seraient prises en charge par l'IA dans un avenir pas très lointain.
Meta se lance également à la poursuite de la superintelligence. Son PDG, Mark Zuckerberg, a déclaré qu'elle était proche et qu'elle « autonomiserait » les individus. La société a récemment divisé son laboratoire Meta Superintelligence Labs en quatre groupes plus petits, ce qui laisse penser que cette technologie pourrait être plus loin que ne le prévoyait Zuckerberg.
Une coalition transversale : tech, royauté et société civile
Ce qui frappe, c’est la diversité des profils. À côté des chercheurs et entrepreneurs, on retrouve des acteurs du monde culturel, des personnalités religieuses et des figures politiques. Cette transversalité donne à la lettre une portée morale et sociale qui dépasse les clivages.
Certains observateurs y voient une nouvelle forme de lobbying éthique, face à des entreprises technologiques devenues plus puissantes que certains États. D’autres saluent une rare tentative de rassembler des consciences autour d’un principe universel de précaution, dans un monde où l’innovation prime souvent sur la prudence.
Les limites de l’initiative
Toutefois, l’appel soulève des questions pratiques : qui fixerait les critères de ce moratoire ? Comment distinguer une « IA avancée » d’une « super-intelligence » ? Et surtout, quelle autorité mondiale pourrait imposer une telle interdiction dans un secteur où la compétition géopolitique entre États-Unis et Chine bat son plein ?
Certains experts jugent cette demande irréaliste. Ils rappellent que la précédente lettre de 2023, appelant à une simple pause, n’a pas eu d’effet concret : OpenAI a poursuivi ses travaux sur GPT-5, Google a lancé Gemini, et les investissements dans les semi-conducteurs ont atteint des records. L’argument de la « prohibition » pourrait, selon eux, renforcer le secret et la fragmentation de la recherche plutôt que la transparence.
Une question de gouvernance mondiale
Au-delà du symbole, la lettre met en lumière un défi de gouvernance inédit. Peut-on réellement encadrer une technologie dont la diffusion est aussi rapide, décentralisée et lucrative ? Certains chercheurs appellent à créer un traité international sur l’IA, équivalent à un “accord nucléaire numérique”. L’idée serait de limiter les capacités de calcul allouées à certains modèles, d’exiger des audits de sécurité et de contrôler les ressources critiques comme les puces et les serveurs.
Mais sans volonté politique mondiale, ces mécanismes risquent de rester théoriques. L’appel de FLI vise justement à créer une pression morale et médiatique, espérant susciter une prise de conscience citoyenne avant que les décisions irréversibles ne soient prises.
Une initiative similaire lancée contre les deepfake
Des experts en intelligence artificielle et des dirigeants d'entreprises, dont Yoshua Bengio, l'un des pionniers de cette technologie, ont signé une lettre ouverte appelant à une plus grande réglementation de la création de deepfakes, en invoquant les risques potentiels pour la société. La lettre contient des recommandations sur la manière de réglementer les deepfakes.
Aujourd'hui, les deepfakes concernent souvent l'imagerie sexuelle, la fraude ou la désinformation politique. « Étant donné que l'IA progresse rapidement et rend la création de deepfakes beaucoup plus facile, des garde-fous sont nécessaires », indique le groupe dans la lettre, rédigée par Andrew Critch, chercheur en IA à l'université de Berkeley.
Les deepfakes sont des images, des sons et des vidéos réalistes mais fabriqués par des algorithmes d'IA, et les progrès récents de la technologie les rendent de plus en plus impossibles à distinguer des contenus créés par des humains.
La lettre, intitulée « Disrupting the Deepfake Supply Chain », contient des recommandations sur la manière de réglementer les deepfakes, notamment la criminalisation totale de la pédopornographie par deepfake, des sanctions pénales pour toute personne créant ou facilitant sciemment la diffusion de deepfakes nuisibles et l'obligation pour les entreprises d'IA d'empêcher leurs produits de créer des deepfakes nuisibles.
Plus de 400 personnes issues de différents secteurs, notamment du monde universitaire, du spectacle et de la politique, avaient signé la lettre. Parmi les signataires figurent Steven Pinker, professeur de psychologie à Harvard, Joy Buolamwini, fondatrice de l'Algorithmic Justice League, deux anciens présidents estoniens, des chercheurs de Google DeepMind et un chercheur d'OpenAI.
Veiller à ce que les systèmes d'IA ne nuisent pas à la société est une priorité pour les régulateurs depuis qu'OpenAI, soutenue par Microsoft, a dévoilé ChatGPT fin 2022, qui a séduit les utilisateurs en les faisant participer à des conversations semblables à celles des humains et en effectuant d'autres tâches. De nombreuses personnalités ont mis en garde contre les risques liés à l'IA.
Faut-il vraiment interdire la super-intelligence ?
Derrière la lettre, une tension demeure : faut-il interdire ou réguler ? La nuance est capitale. Une interdiction totale pourrait freiner des innovations cruciales, par exemple dans la médecine, l’environnement ou la recherche scientifique. Mais l’absence de garde-fous ouvrirait la voie à des dérives incontrôlables. L’histoire des technologies montre que les interdictions absolues sont rares et souvent temporaires. Peut-être que cette lettre ne vise pas une interdiction définitive, mais un temps de réflexion collectif : un signal d’alarme avant que la machine ne devienne littéralement plus intelligente que son créateur.
Cette lettre ouverte pourrait bien rester un texte symbolique, mais son écho est déjà mondial. En unissant les voix de scientifiques, d’entrepreneurs et de figures publiques, elle marque une étape cruciale dans la prise de conscience. Qu’on y voie un geste utopique ou une nécessité absolue, le message est clair : l’avenir de l’IA ne peut pas se décider dans le secret des laboratoires. Il appartient désormais à l’humanité tout entière d’en fixer les limites, avant que ces limites ne nous échappent.
Source : lettre ouverte
Et vous ?





Voir aussi :


Vous avez lu gratuitement 16 467 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.