Quelques jours avant le deuxième sommet mondial sur l'intelligence artificielle, les manifestants d'un petit mouvement en pleine expansion appelé « Pause AI » ont demandé aux gouvernements du monde entier de réglementer les entreprises d'intelligence artificielle et de geler le développement de nouveaux modèles d'intelligence artificielle à la pointe de la technologie. Selon eux, le développement de ces modèles ne devrait être autorisé que si les entreprises acceptent de les soumettre à une évaluation approfondie afin de tester d'abord leur sécurité. Des manifestations ont eu lieu lundi dans treize pays différents, dont les États-Unis, le Royaume-Uni, le Brésil, l'Allemagne, l'Australie et la Norvège.
Leur objectif est d'attirer l'attention des électeurs et des politiciens avant le sommet de Séoul sur l'IA, qui fait suite au sommet sur la sécurité de l'IA qui s'est tenu au Royaume-Uni en novembre 2023. Mais le groupe de manifestants, peu organisé, n'a pas encore trouvé le meilleur moyen de faire passer son message.
« Le sommet n'a pas débouché sur des réglementations significatives », explique Joep Meindertsma, fondateur de PauseAI. Les participants à la conférence se sont mis d'accord sur la « Déclaration de Bletchley », mais cet accord ne signifie pas grand-chose, selon Meindertsma. « Ce n'est qu'un premier pas, et ce dont nous avons besoin, c'est de traités internationaux contraignants ».
Pour mémoire, à travers la déclaration de Bletchley, les signataires s'engagent en faveur d'une coopération internationale inclusive pour répondre aux préoccupations en matière de sécurité de l'IA, en proposant des mesures telles que des normes éthiques, la transparence, des tests de sécurité et l'éducation du public. En outre, elle soutient la création d'un réseau international de recherche axé sur la sécurité de l'IA d'avant-garde. La déclaration de Bletchley repose sur cinq points fondamentaux, à savoir :
- insister sur la nécessité d'une IA sûre et responsable : la déclaration de Bletchley souligne l'importance de développer une IA sûre, centrée sur l'être humain, digne de confiance et responsable, en mettant l'accent sur la protection des droits de l'homme et en veillant à ce qu'elle soit largement bénéfique ;
- reconnaître les opportunités et les risques : la déclaration de Bletchley reconnaît le vaste potentiel de l'IA et les risques qui y sont associés, en particulier dans le cas de l'IA exploratoire, qui possède des capacités puissantes et potentiellement dangereuses qui restent mal comprises et imprévisibles ;
- s'engager en faveur d'une coopération inclusive : la déclaration de Bletchley s'engage à collaborer entre les nations et les parties prenantes, en plaidant pour une coopération inclusive afin d'aborder les risques de sécurité liés à l'IA. Cette collaboration se fera par l'intermédiaire des plateformes internationales existantes et d'autres initiatives pertinentes ;
- proposer des mesures pour la sécurité de l'IA : la déclaration de Bletchley propose diverses mesures pour garantir la sécurité de l'IA, notamment l'établissement de normes éthiques, la transparence et la responsabilité, des procédures rigoureuses de test et d'évaluation de la sécurité, ainsi que la sensibilisation du public et la promotion de l'éducation sur les questions liées à l'IA ;
- soutenir la recherche internationale : la déclaration de Bletchley soutient la création d'un réseau international de recherche scientifique axé sur la sécurité de l'IA. Cette recherche fournira des informations précieuses pour l'élaboration des politiques et le bien public, tout en contribuant à des dialogues internationaux plus larges sur l'IA.
« Arrêtez la course, ce n'est pas sûr ». Des manifestants tentent d'inciter les décideurs politiques à règlementer l'IA
À Londres, une vingtaine de manifestants se sont postés devant le ministère britannique de la science, de l'innovation et de la technologie, scandant des slogans tels que « arrêtez la course, ce n'est pas sûr » et « l'avenir de qui ? notre avenir », dans l'espoir d'attirer l'attention des décideurs politiques. Les manifestants affirment que leur objectif est d'inciter les gouvernements à réglementer les entreprises qui développent des modèles d'IA d'avant-garde, notamment le Chat GPT d'OpenAI. Ils affirment que les entreprises ne prennent pas suffisamment de précautions pour s'assurer que leurs modèles d'IA sont suffisamment sûrs pour être diffusés dans le monde.
« Les entreprises d'IA ont prouvé à maintes reprises que l'on ne pouvait pas leur faire confiance, à travers la manière dont elles traitent leurs employés et le travail des autres, en le volant littéralement et en le jetant dans leurs modèles », a déclaré Gideon Futerman, un étudiant d'Oxford qui a prononcé un discours lors de la manifestation.
L'une des manifestantes, Tara Steele, rédactrice indépendante qui travaille sur des blogs et des contenus de référencement, a déclaré qu'elle avait constaté l'impact de la technologie sur ses propres moyens de subsistance. « J'ai remarqué que depuis l'apparition de ChatGPT, la demande de travail en freelance a considérablement diminué », explique-t-elle. « Personnellement, j'adore écrire... J'ai vraiment adoré ça. Et c'est un peu triste, émotionnellement ».
Elle explique que sa principale raison de protester est qu'elle craint que les modèles d'intelligence artificielle d'avant-garde n'aient des conséquences encore plus dangereuses à l'avenir. « Nous avons une foule d'experts hautement qualifiés, des lauréats du prix Turing, des chercheurs en intelligence artificielle très cités et les PDG des entreprises d'intelligence artificielle eux-mêmes [qui affirment que l'intelligence artificielle pourrait être extrêmement dangereuse] ».
Elle est particulièrement préoccupée par le nombre croissant d'experts qui mettent en garde contre les conséquences catastrophiques d'une IA mal maîtrisée. Un rapport commandé par le gouvernement américain, publié en mars, met en garde contre « l'essor de l'IA avancée et de l'IAG [intelligence artificielle générale], qui pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». Actuellement, les plus grands laboratoires d'IA tentent de construire des systèmes capables de surpasser les humains dans presque toutes les tâches, y compris la planification à long terme et la pensée critique. S'ils y parviennent, de plus en plus d'aspects de l'activité humaine pourraient être automatisés, qu'il s'agisse de choses banales comme les achats en ligne ou de l'introduction de systèmes d'armes autonomes qui pourraient agir d'une manière que nous ne pouvons pas prédire. Cela pourrait conduire à une « course aux armements » qui augmenterait la probabilité « d'accidents mortels à l'échelle mondiale et à l'échelle des ADM [armes de destruction massive], de conflits interétatiques et d'escalade », selon le rapport.
https://www.youtube.com/shorts/4MVczlbdV4o
Les experts sont divisés quant aux impacts potentiels
Les experts ne comprennent toujours pas le fonctionnement interne des systèmes d'IA comme ChatGPT, et ils craignent que, dans des systèmes plus sophistiqués, notre manque de connaissances ne nous conduise à faire des erreurs de calcul considérables sur la façon dont des systèmes plus puissants agiraient. Selon le degré d'intégration des systèmes d'IA dans la vie humaine, ceux-ci pourraient causer des ravages et prendre le contrôle de systèmes d'armement dangereux, ce qui amène de nombreux experts à s'inquiéter de la possibilité d'une extinction de l'humanité. « Ces avertissements ne parviennent pas au grand public, qui a besoin de savoir », estime Tara Steele.
À l'heure actuelle, les experts en apprentissage automatique sont quelque peu divisés sur le risque exact que représente la poursuite du développement de la technologie de l'intelligence artificielle. Deux des trois parrains de l'apprentissage profond, un type d'apprentissage automatique qui permet aux systèmes d'IA de mieux simuler le processus de prise de décision du cerveau humain, Geoffrey Hinton et Yoshua Bengio, ont déclaré publiquement qu'ils pensaient que la technologie risquait de conduire à l'extinction de l'humanité.
Le troisième parrain, Yann LeCun, qui est également responsable scientifique de l'IA chez Meta, n'est pas du tout d'accord avec les deux autres. Il a déclaré à Wired en décembre que « l'IA apportera de nombreux avantages au monde. Mais les gens exploitent les craintes suscitées par cette technologie, et nous risquons d'effrayer les gens qui s'en détournent.
Anthony Bailey, un autre manifestant de Pause AI, a déclaré que, bien qu'il comprenne que les nouveaux systèmes d'IA puissent apporter des avantages, il craint que les entreprises technologiques ne soient incitées à construire des technologies dont les humains pourraient facilement perdre le contrôle, parce que ces technologies ont également un immense potentiel de profit. « C'est ce qui a une valeur économique. Si les gens ne sont pas dissuadés de penser que c'est dangereux, ce sont ces types de modules qui seront naturellement construits.
Les dilemmes associés au déploiement de l’IA
L’intelligence artificielle est à la croisée des chemins, confrontée à des dilemmes éthiques et sociaux qui remettent en question les fondements mêmes de son développement. Les récentes protestations contre l’IA soulignent une inquiétude croissante quant à la direction que prend cette technologie. Mais au-delà des slogans et des manifestations, il est crucial de s’interroger sur les implications profondes de l’IA pour notre société.
Premièrement, l’IA pose la question de la transparence. Les algorithmes complexes et souvent opaques peuvent prendre des décisions qui affectent des vies humaines, sans que nous puissions facilement comprendre ou contester ces décisions. De plus, la responsabilité est diluée dans les méandres de ces systèmes, rendant difficile la désignation de coupables en cas d’erreurs ou de préjudices.
Deuxièmement, l’IA remet en cause notre conception du travail. Avec l’automatisation croissante, de nombreux emplois sont menacés, et les travailleurs doivent s’adapter rapidement à un marché en constante évolution. Cela soulève des questions sur la sécurité de l’emploi et la précarité qui peuvent en découler.
Troisièmement, l’IA interroge notre rapport à la vie privée. La collecte massive de données personnelles, nécessaire au fonctionnement de nombreux systèmes d’IA, pose un risque pour la confidentialité et l’autonomie individuelle. Les citoyens sont de plus en plus conscients de ce risque, mais les solutions pour le contrer restent floues.
Enfin, l’IA défie notre éthique. Les systèmes d’IA sont conçus par des humains, avec leurs biais et leurs préjugés. Si ces biais sont intégrés dans l’IA, ils peuvent se propager à grande échelle et renforcer les inégalités existantes.
Ces dilemmes ne sont pas insurmontables, mais ils exigent une réflexion collective et des actions concertées. Les protestations actuelles sont un symptôme d’une société qui cherche à reprendre le contrôle sur une technologie qui semble lui échapper. Il est temps de poser les bonnes questions et de trouver des réponses qui respectent à la fois le potentiel de l’IA et les valeurs humaines fondamentales.
Sources : rapport de Gladstone AI pour le ministère américain de la défense, Pause AI, déclaration de Bletchley
Et vous ?
Quelles sont les principales préoccupations que vous avez concernant le développement rapide de l’intelligence artificielle ?
Comment les gouvernements devraient-ils réguler l’IA pour équilibrer l’innovation et la sécurité publique ?
Quel rôle le public doit-il jouer dans la décision des limites de l’IA ?
Les avantages de l’IA l’emportent-ils sur les risques potentiels pour l’emploi et la vie privée ?
Devrions-nous craindre une ‘course à l’IA’ entre les entreprises et les nations, et si oui, comment pouvons-nous la prévenir ?
Quelles mesures de sécurité spécifiques les entreprises d’IA devraient-elles mettre en place avant de lancer de nouveaux produits ?
Comment l’IA a-t-elle affecté votre vie professionnelle ou personnelle, et quelles sont vos attentes pour l’avenir ?
Quelles sont les responsabilités éthiques des développeurs d’IA, et comment peuvent-ils s’assurer qu’ils les respectent ?
Voir aussi :
Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies