
qui va l'aider à transformer ses services publics
Le Royaume-Uni a rebaptisé son AI Safety Institute pour se concentrer sur la sécurité, en recrutant la startup américaine Anthropic pour étudier comment la technologie peut être utilisée pour améliorer les services publics. Lancé en 2023 sous le gouvernement du premier ministre de l'époque, Rishi Sunak, l'Institut de sécurité de l'IA a été inauguré alors que l'inquiétude concernant le potentiel de dommages catastrophiques de la technologie se propageait dans le monde entier, aboutissant à un sommet mondial à Bletchley Park.
Depuis son arrivée au pouvoir l'année dernière, le gouvernement travailliste nouvellement élu s'est éloigné des appels à la réglementation de l'IA, se concentrant plutôt sur son potentiel de transformation des services publics. Des fonctionnaires ont été critiqués et félicités pour avoir refusé de signer une déclaration internationale sur l'IA « inclusive » lors du sommet de l'action qui s'est tenu cette semaine à Paris. Le sommet a marqué un changement de ton significatif par rapport à Bletchley, le président français Emmanuel Macron et les hauts fonctionnaires de l'UE soulignant la nécessité de défendre les champions nationaux de l'IA et d'éviter de les réglementer à outrance.
Contexte
Le Royaume-Uni a récemment modifié sa stratégie en matière d'intelligence artificielle en signant un partenariat majeur avec la startup américaine Anthropic, spécialisée dans le développement de chatbots avancés. Cette collaboration vise à intégrer le chatbot Claude d'Anthropic dans les services publics britanniques, afin d'améliorer l'interaction des citoyens avec les informations et les services gouvernementaux. Peter Kyle, ministre britannique des technologies, a déclaré que cet accord concrétisait l'objectif de faire du Royaume-Uni le meilleur endroit pour développer l'IA de pointe, afin que les avantages de cette technologie transformatrice soient ressentis par les personnes et les entreprises dans tout le pays.
Jeudi, le gouvernement a refondu l'organisation en Institut de sécurité de l'IA. Comme son nouveau nom l'indique, l'AISI renaît et continue d'explorer certains de ces risques de sécurité. Toutefois, il ne garde plus un œil sur les risques sociétaux et ne semble plus se concentrer sur le potentiel de l'IA qui s'emballe. Pour souligner ce changement, la nouvelle AISI comprendra une « équipe chargée des abus criminels » qui travaillera en collaboration avec le Home Office, le ministère britannique de la sécurité.
Une modification de son approche
Le gouvernement britannique souhaite s'engager résolument dans la relance de son économie et de son industrie grâce à l'IA, et pour ce faire, il réoriente une institution fondée il y a un peu plus d'un an dans un but très différent. Le ministère des sciences, de l'industrie et de la technologie a annoncé qu'il renommerait l'Institut de sécurité de l'IA en « Institut de sécurité de l'IA ». Ainsi, l'organisme n'explorera plus principalement des domaines tels que les risques existentiels et les biais dans les grands modèles de langage, mais se concentrera sur la cybersécurité, en particulier sur le « renforcement des protections contre les risques que l'IA fait peser sur la sécurité nationale et la criminalité ».
Parallèlement, le gouvernement a également annoncé un nouveau partenariat avec Anthropic. Aucun service ferme n'a été annoncé, mais le protocole d'accord indique que les deux parties « étudieront » la possibilité d'utiliser Claude, l'assistant IA d'Anthropic, dans les services publics ; Anthropic s'efforcera de contribuer aux travaux de recherche scientifique et de modélisation économique. Quant à l'AI Security Institute, il fournira des outils permettant d'évaluer les capacités de l'IA dans le contexte de l'identification des risques de sécurité.
« L'IA a le potentiel de transformer la manière dont les gouvernements servent leurs citoyens », a déclaré Dario Amodei, cofondateur et directeur général d'Anthropic, dans un communiqué. « Nous sommes impatients de voir comment Claude, l'assistant IA d'Anthropic, pourrait aider les agences gouvernementales britanniques à améliorer les services publics, dans le but de découvrir de nouvelles façons de rendre les informations et les services vitaux plus efficaces et plus accessibles aux résidents du Royaume-Uni. »
L'indice économique d'Anthropic, lancé cette semaine, entrera également en ligne de compte. L'indice s'appuie sur des conversations anonymes avec Claude pour déduire comment l'IA est utilisée dans l'ensemble de l'économie. Le Royaume-Uni utilisera ces informations pour « adapter sa main-d'œuvre et ses stratégies d'innovation à un avenir fondé sur l'IA », a déclaré le gouvernement.
Anthropic est la seule entreprise à être annoncée aujourd'hui (ce qui coïncide avec une semaine d'activités sur l'IA à Munich et à Paris) mais elle n'est pas la seule à travailler avec le gouvernement. Une série de nouveaux outils dévoilés en janvier étaient tous basés sur OpenAI. (À l'époque, Peter Kyle, secrétaire d'État à la technologie, avait déclaré que le gouvernement prévoyait de travailler avec diverses entreprises d'IA fondamentales, ce que l'accord avec Anthropic est en train de prouver).
Anthropic est en discussions pour lever 2 milliards de dollars dans le cadre d'une opération qui la valoriserait à 60 milliards dollars, ce qui fait d'elle la dernière startup d'IA à profiter de l'euphorie des investisseurs
Des objectifs redéfinis
Il y a moins de deux ans, le gouvernement britannique a annoncé la création de l'Institut britannique de sécurité de l'IA (AISI), dont l'objectif était de s'attaquer aux risques de sécurité tels que l'utilisation de l'IA pour fabriquer des armes chimiques ou biologiques, et la possibilité que l'humanité perde le contrôle d'une IA superintelligente. L'institut s'est également intéressé en partie aux risques sociétaux de l'IA, tels que la diffusion de fausses informations et la perpétuation des préjugés.
« La sortie de ChatGPT a été un moment Spoutnik pour l'humanité - nous avons été surpris par les progrès rapides et inattendus d'une technologie de notre propre création. Avec l'accélération des investissements dans l'IA avancée et son adoption par le public, ces systèmes deviennent de plus en plus puissants et influent sur nos vies.
« Ces systèmes pourraient libérer les gens du monde entier des tâches routinières fastidieuses et amplifier nos capacités créatives. Mais ils pourraient aussi modifier nos futurs marchés du travail et notre économie plus rapidement que n'importe quelle autre avancée technologique de l'histoire. Ils pourraient aider nos scientifiques à faire de nouvelles découvertes audacieuses, ouvrant la voie à un monde sans cancer et avec un accès à une énergie propre quasi illimitée. Mais ils pourraient aussi concentrer davantage de pouvoir non responsable entre les mains de quelques-uns, ou être utilisés malicieusement pour miner la confiance de la société, éroder la sécurité publique ou menacer la sécurité internationale.
« Certains de ces risques se manifestent déjà sous la forme de préjudices pour les personnes aujourd'hui et sont exacerbés par les avancées à la frontière du développement de l'IA. L'existence d'autres risques est plus controversée et polarisée. Mais pour reprendre les mots du mathématicien I.J. Good, collègue d'Alan Turing à Bletchley Park, "il vaut parfois la peine de prendre la science-fiction au sérieux".
« Nous devons toujours nous rappeler que l'IA n'est pas un phénomène naturel qui nous arrive, mais un produit de la création humaine que nous avons le pouvoir de façonner et de diriger ».
La transformation par le gouvernement de l'AI Safety Institute (lancé en fanfare il y a un peu plus d'un an) en AI Security ne devrait pas surprendre outre mesure.
Dans un communiqué, le ministre des technologies Peter Kyle a déclaré que l'Institut de sécurité de l'IA, rebaptisé Institut de sécurité de l'IA, aiderait à « libérer l'IA et à faire croître l'économie ». Il a ajouté : « Le travail de l'Institut de sécurité de l'IA ne changera pas, mais cette nouvelle orientation garantira que nos citoyens - et ceux de nos alliés - sont protégés contre ceux qui cherchent à utiliser l'IA contre nos institutions, nos valeurs démocratiques et notre mode de vie ».
Changement d'orientation
La mission révisée de l'AISI semble s'inscrire dans la nouvelle stratégie du Royaume-Uni, qui consiste à s'aligner sur celle du président Donald Trump aux États-Unis.
En début de semaine, le Royaume-Uni a semé la consternation dans la communauté de l'IA en refusant de signer la déclaration issue du sommet de Paris sur l'action en matière d'IA. Les États-Unis ont également refusé de la signer.
À première vue, le raisonnement des États-Unis s'explique par le désir d'éviter une réglementation excessive de l'IA (la déclaration fait référence à des cadres internationaux et à la gouvernance), mais beaucoup ont vu dans les références du document à l'IA inclusive et à la réduction de la fracture numérique une garantie que l'administration anti-DEI de Trump ne les signerait pas. Le refus du Royaume-Uni a été plus surprenant ; son gouvernement a invoqué des préoccupations liées à la « gouvernance mondiale » et à la sécurité nationale ».
Quelques semaines auparavant, l'un des premiers actes de Trump en tant que nouveau président a été d'annuler le décret de 2023 du président Joe Biden sur la mise en place de garde-fous pour la technologie, y compris dans les domaines touchant aux libertés civiles.
Le vice-président américain JD Vance a déclaré au sommet cette semaine qu'il n'était pas à Paris « pour parler de la sécurité de l'IA, qui était le titre de la conférence il y a quelques années », mais plutôt pour parler de « l'opportunité de l'IA ». Son message insistait sur la nécessité d'éviter toute aversion au risque en matière d'IA.
Jeudi, le secrétaire d'État britannique à la technologie, Peter Kyle, a tenu des propos très similaires.
« Les changements que j'annonce aujourd'hui représentent la suite logique de notre approche du développement responsable de l'IA, qui nous aidera à libérer l'IA et à faire croître l'économie », a-t-il déclaré. « La tâche principale de tout gouvernement est de s'assurer que ses citoyens sont en sécurité et protégés, et je suis convaincu que l'expertise que notre institut sera en mesure d'apporter permettra au Royaume-Uni d'être dans une position plus forte que jamais pour faire face à la menace de ceux qui chercheraient à utiliser cette technologie contre nous. »
Le gouvernement a souligné dans sa déclaration que l'AISI « ne se concentrera pas sur les préjugés ou la liberté d'expression », et le président de l'AISI, Ian Hogarth, a insisté sur le fait que « depuis le début, l'Institut s'est concentré sur la sécurité ».
Sources : AI Security Institute, Anthropic, Élysée, AI Safety Institute
Et vous ?






Voir aussi :

Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.