Le Premier ministre britannique, Rishi Sunak, a organisé la semaine dernière à Bletchley Park, en Angleterre, un sommet international de deux jours sur la sécurité de l'IA. Les représentants de 28 pays, des PDG d'entreprises, des chercheurs, ainsi que des dirigeants d'organisations internationales comme l'UE et les Nations Unies ont participé au sommet. Les participants ont échangé pendant deux jours sur les perspectives et la sécurité de l'IA. À la fin, ils ont convenu d'œuvrer en faveur d'un accord et d'une responsabilité partagés concernant les risques liés à l'IA, et ont prévu d'organiser d'autres réunions dans les prochains mois, en Corée du Sud et en France.
Dès le premier jour du sommet, qualifié de "première historique" par Rishi Sunak, les participants ont signé la déclaration de Bletchley, une déclaration commune reconnaissant les risques liés à la technologie. Bletchley Park est un site historique reconnu comme étant le berceau de l’informatique moderne. Le site, qui abrite le National Museum of Computing, des bureaux d'entreprise et plusieurs attractions, est le lieu où opérait le célèbre Alan Turing pendant la Seconde Guerre mondiale pour déchiffrer les codes militaires utilisés par l'Allemagne nazi et ses alliés. La déclaration de Bletchley reconnaît le potentiel et les dangers potentiels de l'IA.
À travers la déclaration de Bletchley, les signataires s'engagent en faveur d'une coopération internationale inclusive pour répondre aux préoccupations en matière de sécurité de l'IA, en proposant des mesures telles que des normes éthiques, la transparence, des tests de sécurité et l'éducation du public. En outre, elle soutient la création d'un réseau international de recherche axé sur la sécurité de l'IA d'avant-garde. La déclaration de Bletchley repose sur cinq points fondamentaux, à savoir :
- insister sur la nécessité d'une IA sûre et responsable : la déclaration de Bletchley souligne l'importance de développer une IA sûre, centrée sur l'être humain, digne de confiance et responsable, en mettant l'accent sur la protection des droits de l'homme et en veillant à ce qu'elle soit largement bénéfique ;
- reconnaître les opportunités et les risques : la déclaration de Bletchley reconnaît le vaste potentiel de l'IA et les risques qui y sont associés, en particulier dans le cas de l'IA exploratoire, qui possède des capacités puissantes et potentiellement dangereuses qui restent mal comprises et imprévisibles ;
- s'engager en faveur d'une coopération inclusive : la déclaration de Bletchley s'engage à collaborer entre les nations et les parties prenantes, en plaidant pour une coopération inclusive afin d'aborder les risques de sécurité liés à l'IA. Cette collaboration se fera par l'intermédiaire des plateformes internationales existantes et d'autres initiatives pertinentes ;
- proposer des mesures pour la sécurité de l'IA : la déclaration de Bletchley propose diverses mesures pour garantir la sécurité de l'IA, notamment l'établissement de normes éthiques, la transparence et la responsabilité, des procédures rigoureuses de test et d'évaluation de la sécurité, ainsi que la sensibilisation du public et la promotion de l'éducation sur les questions liées à l'IA ;
- soutenir la recherche internationale : la déclaration de Bletchley soutient la création d'un réseau international de recherche scientifique axé sur la sécurité de l'IA. Cette recherche fournira des informations précieuses pour l'élaboration des politiques et le bien public, tout en contribuant à des dialogues internationaux plus larges sur l'IA.
La secrétaire d'État britannique à la Science, à l'Innovation et à la Technologie, Michelle Donelan, a déclaré que l'accord était une réalisation historique et qu'il jetait les bases des discussions internationales sur la sécurité de l'IA. Cependant, des experts en IA estiment que l'accord ne va pas assez loin. « Réunir les grandes puissances pour approuver des principes éthiques peut être considéré comme un succès, mais l'élaboration de politiques concrètes et de mécanismes de responsabilité doit suivre rapidement », a déclaré Paul Teather, PDG de la société de recherche sur l'IA AMPLYFI. Selon lui, les conclusions ne sont pas à la hauteur des attentes de l'industrie.
Teather a ajouté : « une terminologie vague laisse place à des interprétations erronées, tandis que le fait de s'appuyer uniquement sur une coopération volontaire est insuffisant pour susciter de meilleures pratiques reconnues sur le plan mondial en matière d'IA ». En outre, les législateurs européens ont mis en garde contre le fait que trop de technologies et de données étaient détenues par un petit nombre d'entreprises dans un seul pays, les États-Unis. Selon eux, cette situation pourrait créer un monopole et empêcher une concurrence équitable dans le secteur. Les États-Unis pourraient également tenter d'imposer leurs règles aux autres dans ce cas.
« Le fait qu'un seul pays détienne toutes les technologies, toutes les entreprises privées, tous les appareils et toutes les compétences sera un échec pour nous tous », a déclaré le ministre français de l'Économie et des Finances, Bruno Le Maire. En plus, des désaccords subsistent quant à la manière exacte de réglementer l'IA et quant à savoir qui dirigera ces efforts. Par exemple, le Royaume-Uni s'est démarqué de l'UE en proposant une approche légère de la réglementation de l'IA, contrairement à la loi de l'UE sur l'IA, qui est en cours de finalisation et contraindra les développeurs d'applications considérées comme à haut risque à des contrôles plus stricts.
« Je suis venue à ce sommet pour vendre notre loi sur l'IA », a déclaré Vera Jourova, vice-présidente de la Commission européenne. Bien qu'elle ne s'attende pas à ce que d'autres pays copient intégralement les lois de l'UE, Jourova a déclaré qu'un accord sur les règles mondiales était nécessaire. « Si le monde démocratique ne veut pas imposer de règles et que nous en imposons, la bataille sera perdue », a-t-elle ajouté. En outre, certains participants au sommet ont déclaré que les trois principaux blocs de pouvoir présents - les États-Unis, l'UE et la Chine - ont tenté d'affirmer leur domination. La déclaration de Bletchley semble avoir un avenir hypothétique.
Certains ont suggéré que la vice-présidente des États-Unis, Kamala Harris, avait devancé Rishi Sunak lorsque le gouvernement américain a annoncé la création de son propre institut de sécurité de l'IA - tout comme la Grande-Bretagne l'avait fait une semaine plus tôt - et qu'elle a prononcé un discours à Londres soulignant les risques à court terme de l'IA, contrairement au sommet qui s'est concentré sur ses menaces existentielles. « Il était fascinant de constater qu'au moment où nous annoncions notre institut de sécurité de l'IA, les Américains annonçaient le leur », a déclaré Nigel Toon, PDG de la société britannique Graphcore, spécialisée dans l'IA.
Par ailleurs, les tensions entre la Chine et les États-Unis et leurs alliés pourraient avoir un impact négatif sur l'avenir de cet accord. La présence de la Chine au sommet et sa décision de signer la déclaration de Bletchley ont été saluées comme un succès par les responsables britanniques. Le vice-ministre chinois de la Science et de la Technologie, Wu Zhaohui, a déclaré que son pays était prêt à travailler avec toutes les parties sur la gouvernance de l'IA. Mais, il a déclaré aux délégués que la tension entre la Chine et l'Occident était palpable : « les pays, quelles que soient leur taille et leur échelle, ont les mêmes droits de développer et d'utiliser l'IA ».
Zhaohui a participé à la table ronde du jeudi, mais n'a pas participé aux événements publics du deuxième jour. La responsabilité de la sécurité de l'IA incombe à toutes les parties prenantes, y compris les nations, les organisations internationales, les entreprises, la société civile et le monde universitaire. L'inclusion et la réduction de la fracture numérique sont essentielles pour que l'IA profite à tous, y compris aux pays en développement. L'engagement en faveur de cette mission doit rester ferme, car ce n'est qu'en travaillant ensemble que le monde pourra faire en sorte que l'IA continue de profiter à l'humanité tout en atténuant les dangers potentiels.
Les participants au sommet ont également abordé le sujet des modèles d'IA open source. Certains experts ont mis en garde contre le fait que les modèles open source pourraient être utilisés par des terroristes pour créer des armes chimiques, voire une superintelligence échappant au contrôle de l'homme. Yoshua Bengio, un pionnier de l'IA nommé pour diriger un rapport sur l'état de la science commandé dans le cadre de la déclaration de Bletchley, a déclaré que les dangers potentiels liés à l'IA open source constituaient une priorité absolue. Cependant, ces allégations sont réfutées par la communauté open source et des entreprises comme Meta.
S'adressant à Rishi Sunak lors d'un événement en direct à Londres jeudi, Elon Musk, PDG de xAI a déclaré : « nous en arriverons à un point où l'IA en source ouverte commencera à s'approcher de l'intelligence humaine, voire à la dépasser. Je ne sais pas vraiment quoi faire à ce sujet ». Selon Bengio, il n'est pas possible de publier ces puissants systèmes en code source libre tout en protégeant le public avec des garde-fous adéquats. En commentant ces propos, Nick Clegg, président des affaires internationales de Meta, a déclaré que les réglementations gouvernementales en vue pourraient se heurter à la résistance des entreprises technologiques.
« Les nouvelles technologies donnent toujours lieu à un battage médiatique. Elles entraînent souvent un zèle excessif chez les partisans et un pessimisme excessif chez les détracteurs. Je me souviens des années 80. Il y a eu cette même panique morale à propos des jeux vidéo. Il y a eu des paniques morales autour de la radio, de la bicyclette, d'Internet », a ajouté Clegg. Dans le même temps, Mark Surman, président et directeur exécutif de la fondation Mozilla, qui supervise le développement du navigateur Firefox, s'est également inquiété du fait que le sommet soit une plateforme mondiale permettant aux entreprises privées de faire valoir leurs intérêts.
Mozilla a publié jeudi une lettre ouverte signée par des universitaires, des hommes politiques et des employés d'entreprises privées, en particulier Meta, ainsi que par le prix Nobel de la paix Maria Ressa. « Nous avons constaté à maintes reprises qu'un accès et un contrôle publics accrus rendent les technologies plus sûres, et non plus dangereuses. L'idée qu'un contrôle étroit et exclusif des modèles d'IA fondamentaux est le seul moyen de nous protéger d'un préjudice à l'échelle de la société est au mieux naïve, au pire dangereuse », a déclaré Surman. Tout comme Meta, la fondation Mozilla milite pour le développement de l'IA en open source.
« Nous appelons les décideurs politiques à investir dans une série d'approches - de l'open source à la science ouverte - dans la course à la sécurité de l'IA. Des approches ouvertes, responsables et transparentes sont essentielles pour assurer notre sécurité à l'ère de l'IA », a-t-il ajouté. En somme, la déclaration de Bletchley adoptée lors du sommet est juridiquement non contraignante et les analyses sont sceptiques quant à ses perspectives. Selon ces derniers, l'accord ne devrait avoir que très peu d'impact sur le développement de l'IA. Il est décrié, car il est considéré comme une occasion pouvant permettre aux Big Tech d'imposer leurs visions de l'IA.
Source : la déclaration de Bletchley
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la déclaration de Bletchley adoptée la semaine dernière au Royaume-Uni ?
La déclaration de Bletchley répond-elle aux préoccupations liées à la sécurité de l'IA ? Pourquoi ?
L'initiative est-elle prometteuse ? Quels pourraient être les impacts potentiels sur l'avenir de l'IA ?
L'initiative favorise-t-elle les entreprises privées au détriment de la communauté open source ?
Pour le secteur privé tente d'empêcher la communauté open source de participer à la course à l'IA ?
Que pensez-vous des inquiétudes exprimées par le ministre français de l'Économie et des Finances ?
Comment l'Europe pourrait-elle jouer un rôle de leader sur la question de la sécurité de l'IA ?
Quid de la France ? La France dispose-t-elle des atouts nécessaires pour s'imposer dans la course à l'IA ?
Voir aussi
Elon Musk déclare au Premier ministre Britannique qu'avec l'IA nous n'aurons plus besoin de travailler pour gagner nos vies, l'IAG nous conduirait à une ère où « aucun travail ne serait nécessaire »
« L'intelligence artificielle va surpasser l'humain dans 5 ans », d'après Elon Musk qui indique comment sa société Neuralink qui conçoit des ordinateurs à implanter dans le cerveau va nous sauver
La Chine prévoit de stimuler la production de masse de robots humanoïdes d'ici à 2025. En 2027, ils seraient "le nouveau moteur important de la croissance économique" de la Chine