Depuis des années, le sénateur Bernie Sanders incarne une voix critique du capitalisme débridé et des inégalités croissantes aux États-Unis. Mais en 2025, ce sont les avancées spectaculaires de l’intelligence artificielle qui mobilisent son énergie et ses inquiétudes. Lors d’un entretien récent, le sénateur du Vermont a exprimé ce qu’il appelle le « scénario apocalyptique de l’IA », redouté non seulement par lui mais aussi par certains des experts les plus respectés du domaine.À ses yeux, le problème n’est pas seulement technologique : il est fondamentalement politique. Sans intervention forte, l’intelligence artificielle risque de renforcer les dynamiques d’exploitation, démanteler le marché de l’emploi, et surtout accroître la concentration extrême de richesses au sommet de la pyramide sociale. Le tout, sous couvert de progrès.
La première dimension des préoccupations de Bernie Sanders concernant l'IA touche à la capacité de l'humanité à maintenir le contrôle sur des systèmes de plus en plus sophistiqués, évoquant des risques existentiels profonds.
Bernie Sanders affirme s’être entretenu avec des spécialistes de l’intelligence artificielle de renommée internationale. L’un d’entre eux lui a confié craindre que les êtres humains « perdent totalement le contrôle » des systèmes qu’ils ont créés. Selon Sanders, ce scénario dystopique, longtemps cantonné à la science-fiction, est désormais considéré comme plausible, voire probable, par une partie de la communauté scientifique.
« Certaines des personnes les plus intelligentes de ce pays sont terrifiées par ce qu’il se passe. Elles craignent que nous soyons en train de mettre en place une machine que nous ne pourrons plus contrôler », a-t-il confié à Gizmodo.
Le « problème de l'alignement » est au cœur de ces craintes
Il s'agit de s'assurer que les systèmes d'IA, en particulier l'Intelligence Artificielle Générale (AGI) ou la Superintelligence Artificielle, adoptent des objectifs et des valeurs qui sont compatibles avec les objectifs et les valeurs humaines
Dans cette optique, OpenAI a mis sur pieds en 2023 une division chargée de créer une IA qui va contrôler le développement de la superintelligence.
« Le pouvoir immense de la superintelligence pourrait … conduire au déclassement de l’humanité ou même à son extinction », ont écrit dans un billet de blog le co-fondateur d’OpenAI, Ilya Sutskever, et celui qui en fût le responsable, Jan Leike. « Actuellement, nous n’avons pas de solution pour orienter ou contrôler une IA potentiellement superintelligente, et l’empêcher de devenir incontrôlable ».
La superintelligence (des systèmes plus intelligents que les humains) pourrait arriver cette décennie, ont prédit les auteurs du billet de blog. Les humains auront besoin de meilleures techniques que celles actuellement disponibles pour pouvoir contrôler la superintelligence, d’où la nécessité de percées dans la recherche sur « l’alignement », qui se concentre sur le fait de garantir que l’IA reste bénéfique aux humains, selon les auteurs.
L'AGI n'étant « pas encore imminente » selon certains chercheurs, ils suggèrent de s'attaquer d'abord aux problèmes plus urgents posés par l'IA
Bien que les risques existentiels soient une préoccupation croissante, certains experts estiment que les systèmes d'IA actuels ne sont pas encore assez proches de la capacité de menacer l'humanité de manière existentielle. Ils soutiennent que des problèmes plus urgents, comme les biais algorithmiques, les risques de confidentialité des données, la désinformation et les impacts sociaux et économiques immédiats, devraient être prioritaires compte tenu des ressources limitées.
Il existe un débat sur le fait que les améliorations technologiques de l'IA auraient ralenti récemment, contredisant l'idée d'une AGI imminente. Certains experts estiment que les modèles entraînés sur le langage seul ne pourront jamais atteindre l'intelligence humaine et que l'approche devrait se concentrer sur l'interaction directe avec l'environnement.
D'ailleurs, en parlant des problèmes plus urgents à gérer, la France a ouvert une enquête pénale inédite contre X (anciennement Twitter) suite à des allégations d'ingérence étrangère présumée, qui serait facilitée par l'algorithme de recommandation
L’un des axes de l’enquête concerne le fonctionnement opaque de l’algorithme de X, qui détermine la visibilité des contenus via le fil « Pour vous ». Des chercheurs affirment avoir identifié des patterns de diffusion anormaux, où certains récits politiques (notamment climatosceptiques, anti-OTAN, pro-Kremlin ou anti-immigration) ont bénéficié d’un effet de levier algorithmique disproportionné.
Il ne s’agit pas simplement d’un défaut de modération, mais d’une amplification active de certains messages, en particulier depuis la disparition de nombreux garde-fous techniques (comme les labels...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Trouvez-vous l'argumentation de Bernie Sanders crédible ou pertinente ?