IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des entreprises de premier plan telles que Google, Microsoft et OpenAI forment un groupe visant à contrôler l'IA,
Les critiques allèguent que les entreprises cherchent à éviter la réglementation

Le , par Mathis Lucas

10PARTAGES

5  0 
Le "Frontier Model Forum" est le dernier signe en date de l'avance de l'industrie sur les décideurs politiques qui souhaitent contrôler le développement de l'IA. C'est une association créée par Anthropic, Google, Microsoft et OpenAI en vue d'établir un ensemble de bonnes pratiques pour le développement de modèles d'IA. Ces acteurs sont quatre des entreprises les plus avancées dans la course à l'IA, ce qui suscite de grandes inquiétudes dans la communauté. Les critiques de cette initiative pensent que ces entreprises veulent tout simplement éviter la réglementation politique, établir leur domination sur le secteur de l'IA et empêcher d'autres concurrents d'émerger.

Mercredi, Anthropic, Google, Microsoft et OpenAI ont lancé Frontier Model Forum dans le but de garantir un développement sûr et responsable des modèles d'IA. Selon le groupe, le projet vise à faire progresser la recherche sur la sécurité de l'IA et les évaluations techniques pour la prochaine génération de systèmes d'IA. Elles pensent que les futurs systèmes d'IA seront beaucoup plus puissants que les grands modèles de langage (LLM) qui pilotent actuellement les chatbots tels que ChatGPT et Bard. Le forum servira également de plaque tournante pour les entreprises et les gouvernements afin qu'ils puissent échanger des informations sur les risques liés à l'IA.

« Il est vital que les entreprises d'IA - en particulier celles qui travaillent sur les modèles les plus puissants - s'alignent sur un terrain commun et fassent progresser des pratiques de sécurité réfléchies et adaptables pour que les outils d'IA puissants aient le plus grand bénéfice possible », a déclaré Anna Makanju, vice-présidente des affaires mondiales d'OpenAI, dans un communiqué. L'annonce s'appuie sur les promesses volontaires faites par les entreprises à la Maison Blanche vendredi de soumettre leurs systèmes à des tests indépendants et de développer des outils permettant d'alerter le public lorsqu'une image ou une vidéo a été générée par l'IA.


« Les entreprises qui créent des systèmes d'IA ont la responsabilité de s'assurer qu'ils sont sûrs et sécurisés et qu'ils restent sous contrôle humain. Cette initiative est une étape essentielle pour rassembler le secteur technologique pour faire progresser l'IA de manière responsable et de relever les défis afin qu'elle profite à l'ensemble de l'humanité », a déclaré Brad Smith, vice-président et président de Microsoft. Selon ces créateurs, l'adhésion au forum est limitée à une poignée d'entreprises construisant des modèles d'apprentissage automatique à grande échelle qui dépassent les capacités actuellement présentes dans les modèles existants les plus avancés.

Les travaux du forum se concentreront donc sur les dangers potentiels découlant d'une IA beaucoup plus puissante, plutôt que de répondre aux questions relatives aux droits d'auteur, à la protection des données et à la vie privée, qui sont aujourd'hui pertinentes pour les régulateurs et les utilisateurs. À titre d'exemple, la Commission fédérale du commerce (FTC) des États-Unis a lancé une enquête sur OpenAI, cherchant à déterminer si la société s'est livrée à des pratiques déloyales ou trompeuses en matière de protection de la vie privée et de sécurité des données ou si elle a porté préjudice à des personnes en créant de fausses informations à leur sujet.

L'initiative de l'industrie est le dernier signe en date de la course des entreprises avant les efforts des gouvernements pour élaborer des règles pour le développement et le déploiement de l'IA, alors que les décideurs politiques à Bruxelles et à Washington commencent à se débattre avec les dangers potentiels de cette technologie qui émerge rapidement. La Maison Blanche a annoncé cette année qu'elle prendrait des mesures pour promouvoir "une innovation responsable". De leur côté, les patrons des entreprises d'IA ont adopté un ton plus rassurant, soulignant qu'ils étaient conscients des dangers de la technologie et qu'ils s'engageaient à les atténuer.

La semaine dernière, les PDG des quatre entreprises qui ont lancé le nouveau forum se sont engagés à développer la technologie de l'IA de manière sûre, sécurisée et transparente à la Maison Blanche. Cependant, les critiques allèguent que les assurances données par les entreprises étaient une tentative visant à éviter la réglementation des autorités et à mettre en avant une capacité douteuse d'autorégulation. « La réglementation doit venir de l'extérieur. Elle doit être promulguée par le gouvernement représentant le peuple pour limiter ce que ces entreprises peuvent faire », a déclaré Emily Bender, linguiste informaticienne à l'université de Washington.

« En focalisant l'attention sur les craintes que les machines prennent vie et s'emparent du pouvoir, on détourne l'attention des problèmes réels liés au vol de données, à la surveillance et au fait que tout le monde se retrouve dans l'économie de l'abondance », a ajouté Bender, appelant à plus de vigilance. Par le passé, des groupes similaires au Frontier Model Forum ont déjà été créés. Le Partenariat sur l'IA, dont Google et Microsoft sont également membres fondateurs, a été créé en 2016 avec des membres issus de la société civile, du monde universitaire et de l'industrie, et avec pour mission de promouvoir l'utilisation responsable de l'IA.

Depuis des années, les décideurs politiques affirment que l'on ne peut pas faire confiance aux entreprises technologiques pour établir leurs propres garde-fous, après plus d'une décennie d'atteintes à la vie privée, de menaces pour les démocraties du monde entier et d'incidents qui ont mis en danger des enfants en ligne. Mardi, le sénateur Josh Hawley (R-Mo.) a déclaré lors d'une audition que les entreprises d'IA étaient les mêmes que celles qui ont échappé à la surveillance réglementaire pendant les batailles des médias sociaux avec les régulateurs, citant Google, Meta et Microsoft, en particulier, en tant que développeurs d'IA et investisseurs.

« Nous parlons des mêmes personnes », a déclaré Hawley. Les entreprises technologiques ne sont pas étrangères à l'autorégulation. Les entreprises de médias sociaux ont créé le Forum mondial de l'Internet pour la lutte contre le terrorisme, qu'elles utilisent pour partager des informations sur les menaces terroristes pesant sur leurs services. Meta s'est illustré en créant un Conseil de surveillance, un organe d'experts indépendants financé par l'entreprise, qui pèse sur les décisions épineuses en matière de modération des contenus, notamment la décision de l'entreprise de bannir le président Donald Trump dans la foulée des attentats du 6 janvier.

Toutefois, ces initiatives menées par l'industrie ont été critiquées par les défenseurs des consommateurs, qui estiment qu'elles confient la responsabilité à des experts tiers. Les groupes de défense des consommateurs ont aussi critiqué les organismes d'autorégulation, estimant qu'ils détournaient l'attention des décideurs politiques, faisant ainsi dérailler la législation nécessaire pour mettre un terme aux abus du secteur. Selon les détracteurs de l'autorégulation, la situation actuelle pourrait être résumée comme suit : « les décideurs politiques s'empressent de réglementer l'IA. L'industrie est impatiente de leur apprendre comment faire ».

Mais la réglementation gouvernementale n'est pas prête d'arriver. En attendant, les responsables politiques font pression sur les entreprises pour qu'elles prennent des mesures volontaires afin d'atténuer les dangers potentiels de l'IA. En effet, ChatGPT a mis en évidence la manière dont l'IA menace les emplois et la manière dont elle peut être utilisée pour renforcer les escroqueries en ligne et nuire aux démocraties. Par ailleurs, l'accent mis par les créateurs du Frontier Model Forum sur les capacités des futurs modèles d'IA reflète les déclarations que le PDG d'OpenAI, Sam Altman, a faites lors d'une tournée mondiale très médiatisée en mai et juin.

Au cours de cette tournée, il a rencontré des dizaines de dirigeants mondiaux. Dans des auditoriums à guichets fermés, de Singapour à la Jordanie, il a été demandé à Altman si les rapports sur ses appels à la réglementation devant le Congrès aideraient OpenAI et nuiraient à ses concurrents. Chaque fois, Altman a tenté de rassurer l'auditoire en affirmant qu'il ne pensait pas qu'il était nécessaire d'agir maintenant. Microsoft et ses pairs affirment que le forum pourrait accompagner les initiatives gouvernementales existantes en matière d'IA. Dans les mois à venir, le groupe mettra en place un conseil consultatif chargé d'orienter sa stratégie et ses priorités.

Les fondateurs mettront également en place un financement, un groupe de travail et une charte. Kayla Wood, porte-parole d'OpenAI, a déclaré qu'il ne s'agissait que d'un "lancement initial" et que le forum accueillerait volontiers d'autres entreprises. Mais certains membres du forum ont exprimé leur scepticisme quant à la décision de Meta de rendre son modèle largement disponible en tant que logiciel libre. Le PDG d'Anthropic, Dario Amodei, a récemment fait part de ses inquiétudes quant à l'avenir de l'open source, qui est généralement plus propice à l'innovation, mais qui peut présenter des "dangers catastrophiques" lorsqu'il s'agit d'IA avancée.

Amodei a notamment pointé du doigt la décision de Meta de mettre son modèle d'IA Llama 2 à la disposition du public pour la recherche et la création de nouveaux produits. Meta ne fait pas partie des membres fondateurs du Frontier Model Forum.

Sources : OpenAI, Microsoft, Google

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'initiative de Google, Anthropic, Microsoft et OpenAI ?
Pensez-vous que ces entreprises cherchent à éviter la réglementation gouvernementale ?
Selon vous, quels sont les risques liés à l'autorégulation mise en avant par les entreprises technologiques ?

Voir aussi

Google, Meta, OpenAI et d'autres promettent de se conformer au cadre de sécurité de l'IA de la Maison Blanche, des engagements volontaires qui sont déjà critiqués pour l'absence de mesures punitives

Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale, la réglementation prévoit de lourdes amendes en cas de manquement

Le PDG d'OpenAI, Sam Altman, appelle les États-Unis à collaborer avec la Chine pour contrer les risques liés à l'IA, alors que Washington tente d'entraver les progrès de la Chine en matière d'IA

Une erreur dans cette actualité ? Signalez-nous-la !