« Frontier AI » (que l'on pourrait traduire par « IA avant-gardiste ») est un terme générique utilisé pour décrire les modèles d'IA qui égalent ou surpassent les modèles d'IA de pointe existants, que ce soit en termes de capacités ou de variété de tâches. À l'heure actuelle, « l'IA d'avant-garde » désigne les modèles fondamentaux ou l'IA à usage général (GPAI). Contrairement aux systèmes d'IA restreints, ces systèmes peuvent effectuer un large éventail de tâches, y compris le traitement du langage et des images. Ils fonctionnent souvent comme une sorte de plateforme, que d'autres développeurs peuvent utiliser pour créer des applications. Ainsi, les modèles d'IA les plus avancés sont classés dans la catégorie de l'IA frontière.
Le terme « frontière » ne décrit pas une propriété d'un modèle d'IA ; il met l'accent sur la façon dont il se compare à l'IA existante. Les modèles d'avant-garde d'aujourd'hui peuvent cesser d'être considérés comme tels lorsqu'ils sont surpassés par d'autres modèles d'IA. Par exemple, la nouvelle version du célèbre modèle de langage multimodal GPT-4 de l'OpenAI est plus rapide et plus précise que son prédécesseur, créant ainsi une nouvelle frontière pour l'IA.
En raison de leurs capacités techniques et de calcul sans précédent, et de la grande variété de tâches qu'elles peuvent accomplir, les IA d'avant-garde engendrent également de l'incertitude. Une partie de cette incertitude réside dans leur capacité à nuire à la vie et au bien-être des personnes, ou à l'environnement.
Plusieurs entreprises signent une nouvelle série d'engagements volontaires sur la sécurité de l'IA
Les gouvernements britannique et sud-coréen ont annoncé que les principales entreprises d'intelligence artificielle avaient signé une nouvelle série d'engagements volontaires sur la sécurité de l'IA. Ces entreprises, parmi lesquelles figurent les géants de la technologie que sont Amazon, Google, Meta et Microsoft, ainsi que OpenAI, dirigée par Sam Altman, xAI, d'Elon Musk, et le développeur chinois Zhipu AI, publieront des cadres décrivant la manière dont elles mesureront les risques de leurs modèles d'intelligence artificielle « pionniers ».
Les groupes se sont engagés à « ne pas développer ou déployer un modèle du tout » si des risques graves ne peuvent être atténués, ont déclaré les deux gouvernements avant l'ouverture d'un sommet mondial sur l'IA à Séoul mardi.
Cette annonce s'inscrit dans le prolongement de la déclaration dite de Bletchley, faite lors du premier sommet sur la sécurité de l'IA organisé par le Premier ministre britannique, Rishi Sunak, en novembre.
Pour mémoire, à travers la déclaration de Bletchley, les signataires s'engagent en faveur d'une coopération internationale inclusive pour répondre aux préoccupations en matière de sécurité de l'IA, en proposant des mesures telles que des normes éthiques, la transparence, des tests de sécurité et l'éducation du public. En outre, elle soutient la création d'un réseau international de recherche axé sur la sécurité de l'IA d'avant-garde. La déclaration de Bletchley repose sur cinq points fondamentaux, à savoir :
- insister sur la nécessité d'une IA sûre et responsable : la déclaration de Bletchley souligne l'importance de développer une IA sûre, centrée sur l'être humain, digne de confiance et responsable, en mettant l'accent sur la protection des droits de l'homme et en veillant à ce qu'elle soit largement bénéfique ;
- reconnaître les opportunités et les risques : la déclaration de Bletchley reconnaît le vaste potentiel de l'IA et les risques qui y sont associés, en particulier dans le cas de l'IA exploratoire, qui possède des capacités puissantes et potentiellement dangereuses qui restent mal comprises et imprévisibles ;
- s'engager en faveur d'une coopération inclusive : la déclaration de Bletchley s'engage à collaborer entre les nations et les parties prenantes, en plaidant pour une coopération inclusive afin d'aborder les risques de sécurité liés à l'IA. Cette collaboration se fera par l'intermédiaire des plateformes internationales existantes et d'autres initiatives pertinentes ;
- proposer des mesures pour la sécurité de l'IA : la déclaration de Bletchley propose diverses mesures pour garantir la sécurité de l'IA, notamment l'établissement de normes éthiques, la transparence et la responsabilité, des procédures rigoureuses de test et d'évaluation de la sécurité, ainsi que la sensibilisation du public et la promotion de l'éducation sur les questions liées à l'IA ;
- soutenir la recherche internationale : la déclaration de Bletchley soutient la création d'un réseau international de recherche scientifique axé sur la sécurité de l'IA. Cette recherche fournira des informations précieuses pour l'élaboration des politiques et le bien public, tout en contribuant à des dialogues internationaux plus larges sur l'IA.
« Ces engagements garantissent que les principales entreprises d'IA du monde feront preuve de transparence et de responsabilité quant à leurs projets de développement d'une IA sûre », a déclaré Sunak dans un communiqué. « Ils créent un précédent en matière de normes mondiales de sécurité de l'IA, qui permettra de tirer parti de cette technologie transformatrice ».
Selon un communiqué décrivant l'accord, les entreprises d'IA « évalueront les risques posés par leurs modèles ou systèmes d'avant-garde... y compris avant de déployer ce modèle ou ce système et, le cas échéant, avant et pendant la formation ». Les entreprises définiront également les « seuils à partir desquels les risques graves posés par un modèle ou un système, s'ils ne sont pas atténués de manière adéquate, seraient jugés intolérables » et la manière dont ces mesures d'atténuation seront mises en œuvre.
« Le domaine de la sécurité de l'IA évolue rapidement et nous sommes particulièrement heureux d'approuver l'accent mis par les engagements sur l'affinement des approches parallèlement à la science », a déclaré Anna Makanju, vice-présidente des affaires mondiales chez OpenAI. « Nous restons déterminés à collaborer avec d'autres laboratoires de recherche, des entreprises et des gouvernements pour faire en sorte que l'IA soit sûre et profite à l'ensemble de l'humanité. »
Une annonce qui fait écho aux « engagements volontaires » pris à la Maison Blanche en juillet
L'annonce de mardi fait écho aux « engagements volontaires » pris à la Maison Blanche en juillet de l'année dernière par Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft et OpenAI « pour aider à progresser vers un développement sûr, sécurisé et transparent de la technologie de l'IA ». Toutefois, la manière dont les entreprises pourraient être tenues de rendre des comptes si elles ne respectent pas leurs engagements n'est pas claire.
Le communiqué de mardi indique que les 16 entreprises « assureront la transparence publique » de la mise en œuvre de leurs engagements, « sauf dans la mesure où cela augmenterait les risques ou divulguerait des informations commerciales sensibles dans une mesure disproportionnée par rapport aux avantages pour la société ».
S'exprimant à Séoul avant une réunion virtuelle des dirigeants mardi soir, la ministre britannique des sciences, Michelle Donelan, a déclaré au Financial Times que les accords volontaires conclus à Bletchley avaient porté leurs fruits. « C'est pourquoi nous pensons que ces accords continueront à porter leurs fruits », a déclaré Donelan.
« Mais il ne s'agit pas seulement de savoir ce que les entreprises peuvent faire de plus, il s'agit aussi de savoir ce que les pays peuvent faire de plus », a-t-elle ajouté. Donelan a confirmé que le gouvernement chinois serait représenté lors des réunions organisées le deuxième jour du sommet, mercredi. Dan Hendrycks, conseiller en sécurité auprès de xAI, a déclaré que les engagements volontaires contribueraient à « poser les bases d'une réglementation nationale concrète ».
Mais Donelan a réaffirmé la position du Royaume-Uni selon laquelle il était trop tôt pour envisager une législation visant à renforcer la sécurité de l'IA. « Nous devons mieux maîtriser les risques », a-t-elle déclaré, précisant que le gouvernement britannique offrirait jusqu'à 8,5 millions de livres sterling de subventions pour étudier les risques liés à l'IA, tels que les “deepfakes” et les cyberattaques. Elle a ajouté que si le gouvernement britannique avait initié une législation sur la question l'année dernière, « au moment où elle sortirait, elle serait probablement dépassée ».
Conclusion
Alors que l’industrie de l’IA se concentre de plus en plus sur les préoccupations les plus pressantes, telles que la désinformation, la sécurité des données, les biais et le maintien de l’humain dans la boucle, cet accord représente un pas en avant significatif pour garantir que l’IA soit sûre et bénéfique pour toute l’humanité1.
Ce pacte de sécurité signé par les grandes entreprises d’IA est un jalon crucial dans la quête d’un développement responsable et éthique de l’IA. Il reflète une prise de conscience collective de l’importance de la sécurité dans l’avancement de cette technologie transformatrice et pose les bases d’une collaboration internationale pour un avenir où l’IA est à la fois puissante et sûre.
Source : AI Seoul Summit
Et vous ?
Quelles mesures concrètes les entreprises d’IA devraient-elles prendre pour garantir la sécurité et l’éthique de leurs technologies ?
Comment les consommateurs peuvent-ils s’assurer que les entreprises respectent leurs engagements en matière de sécurité de l’IA ?
Quel rôle les gouvernements devraient-ils jouer dans la régulation de l’IA pour protéger les intérêts publics ?
La transparence est-elle suffisante pour gagner la confiance du public envers l’IA, ou faut-il des mesures supplémentaires ?
Comment pouvons-nous équilibrer l’innovation rapide dans le domaine de l’IA avec la nécessité de prévenir les risques potentiels ?
Les pactes de sécurité comme celui-ci sont-ils suffisants pour prévenir les abus de l’IA, ou avons-nous besoin d’une législation internationale ?
Quelles sont les implications éthiques de l’utilisation de l’IA dans des domaines sensibles tels que la surveillance et la prise de décision judiciaire ?
En quoi la collaboration entre les grandes entreprises d’IA peut-elle contribuer à un développement plus sûr de l’IA ?
Devrions-nous craindre une course aux armements en IA, et si oui, comment la prévenir ?
Quelles sont les conséquences potentielles si une entreprise ne respecte pas le pacte de sécurité de l’IA ?