
Mercredi, Anthropic, Google, Microsoft et OpenAI ont lancé Frontier Model Forum dans le but de garantir un développement sûr et responsable des modèles d'IA. Selon le groupe, le projet vise à faire progresser la recherche sur la sécurité de l'IA et les évaluations techniques pour la prochaine génération de systèmes d'IA. Elles pensent que les futurs systèmes d'IA seront beaucoup plus puissants que les grands modèles de langage (LLM) qui pilotent actuellement les chatbots tels que ChatGPT et Bard. Le forum servira également de plaque tournante pour les entreprises et les gouvernements afin qu'ils puissent échanger des informations sur les risques liés à l'IA.
« Il est vital que les entreprises d'IA - en particulier celles qui travaillent sur les modèles les plus puissants - s'alignent sur un terrain commun et fassent progresser des pratiques de sécurité réfléchies et adaptables pour que les outils d'IA puissants aient le plus grand bénéfice possible », a déclaré Anna Makanju, vice-présidente des affaires mondiales d'OpenAI, dans un communiqué. L'annonce s'appuie sur les promesses volontaires faites par les entreprises à la Maison Blanche vendredi de soumettre leurs systèmes à des tests indépendants et de développer des outils permettant d'alerter le public lorsqu'une image ou une vidéo a été générée par l'IA.
Announcing Frontier Model Forum, an industry body co-founded with @anthropicAI, @Google, @googledeepmind, and @microsoft focused on ensuring safe development of future hyperscale AI models: https://t.co/KLFdVpwQN3
— OpenAI (@OpenAI) July 26, 2023
« Les entreprises qui créent des systèmes d'IA ont la responsabilité de s'assurer qu'ils sont sûrs et sécurisés et qu'ils restent sous contrôle humain. Cette initiative est une étape essentielle pour rassembler le secteur technologique pour faire progresser l'IA de manière responsable et de relever les défis afin qu'elle profite à l'ensemble de l'humanité », a déclaré Brad Smith, vice-président et président de Microsoft. Selon ces créateurs, l'adhésion au forum est limitée à une poignée d'entreprises construisant des modèles d'apprentissage automatique à grande échelle qui dépassent les capacités actuellement présentes dans les modèles existants les plus avancés.
Les travaux du forum se concentreront donc sur les dangers potentiels découlant d'une IA beaucoup plus puissante, plutôt que de répondre aux questions relatives aux droits d'auteur, à la protection des données et à la vie privée, qui sont aujourd'hui pertinentes pour les régulateurs et les utilisateurs. À titre d'exemple, la Commission fédérale du commerce (FTC) des États-Unis a lancé une enquête sur OpenAI, cherchant à déterminer si la société s'est livrée à des pratiques déloyales ou trompeuses en matière de protection de la vie privée et de sécurité des données ou si elle a porté préjudice à des personnes en créant de fausses informations à leur sujet.
L'initiative de l'industrie est le dernier signe en date de la course des entreprises avant les efforts des gouvernements pour élaborer des règles pour le développement et le déploiement de l'IA, alors que les décideurs politiques à Bruxelles et à Washington commencent à se débattre avec les dangers potentiels de cette technologie qui émerge rapidement. La Maison Blanche a annoncé cette année qu'elle prendrait des mesures pour promouvoir "une innovation responsable". De leur côté, les patrons des entreprises d'IA ont adopté un ton plus rassurant, soulignant qu'ils étaient conscients des dangers de la technologie et qu'ils s'engageaient à les atténuer.
La semaine dernière, les PDG des quatre entreprises qui ont lancé le nouveau forum se sont engagés à développer la technologie de l'IA de manière sûre, sécurisée et transparente à la Maison Blanche. Cependant, les critiques allèguent que les assurances données par les entreprises étaient une tentative visant à éviter la réglementation des autorités et à mettre en avant une capacité douteuse d'autorégulation. « La réglementation doit venir de l'extérieur. Elle doit être promulguée par le gouvernement représentant le peuple pour limiter ce que ces entreprises peuvent faire », a déclaré Emily Bender, linguiste informaticienne à l'université de Washington.
« En focalisant l'attention sur les craintes que les machines prennent vie et s'emparent du pouvoir, on détourne l'attention des problèmes réels liés au vol de données, à la surveillance et au fait que tout le monde se retrouve dans l'économie de l'abondance », a ajouté Bender, appelant à plus de vigilance. Par le passé, des groupes similaires au Frontier Model Forum ont déjà été créés. Le Partenariat sur l'IA, dont Google et Microsoft sont également membres fondateurs, a été créé en 2016 avec des membres issus de la société civile, du monde universitaire et de l'industrie, et avec pour mission de promouvoir l'utilisation responsable de l'IA.
Depuis des années, les décideurs politiques affirment que l'on ne peut pas faire confiance aux entreprises technologiques pour établir leurs propres garde-fous, après plus d'une décennie d'atteintes à la vie privée, de menaces pour les démocraties du monde entier et d'incidents qui ont mis en danger des enfants en ligne. Mardi, le sénateur Josh Hawley (R-Mo.) a déclaré lors d'une audition que les entreprises d'IA étaient les mêmes que celles qui ont échappé à la surveillance réglementaire pendant les batailles des médias sociaux avec les régulateurs, citant Google, Meta et Microsoft, en particulier, en tant que développeurs d'IA et investisseurs.
« Nous parlons des mêmes personnes », a déclaré Hawley. Les entreprises technologiques ne sont pas étrangères à l'autorégulation. Les entreprises de médias sociaux ont créé le Forum mondial de l'Internet pour la lutte contre le terrorisme, qu'elles utilisent pour partager des informations sur les menaces terroristes pesant sur leurs services. Meta s'est illustré en créant un Conseil de surveillance, un organe d'experts indépendants financé par l'entreprise, qui pèse sur les décisions épineuses en matière de modération des contenus, notamment la décision de l'entreprise de bannir le président Donald Trump dans la foulée des attentats du 6 janvier.
Toutefois, ces initiatives menées par l'industrie ont été critiquées par les défenseurs des consommateurs, qui estiment qu'elles confient la responsabilité à des experts tiers. Les groupes de défense des consommateurs ont aussi critiqué les organismes d'autorégulation, estimant qu'ils détournaient l'attention des décideurs politiques, faisant ainsi dérailler la législation nécessaire pour mettre un terme aux abus du secteur. Selon les détracteurs de l'autorégulation, la situation actuelle pourrait être résumée comme suit : « les décideurs politiques s'empressent de réglementer l'IA. L'industrie est impatiente de leur apprendre comment faire ».
Mais la réglementation gouvernementale n'est pas prête d'arriver. En attendant, les responsables politiques font pression sur les entreprises pour qu'elles prennent des mesures volontaires afin d'atténuer...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.