IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'industrie technologique a tenté de réduire les préjugés omniprésents de l'IA, mais Donald Trump veut maintenant mettre fin à ses efforts en matière d'"IA Woke"

Le , par Jade Emy

5PARTAGES

4  0 
L'industrie technologique a tenté de réduire les préjugés omniprésents de l'IA, mais Donald Trump veut maintenant mettre fin à ses efforts en matière d' "IA Woke"

Après avoir supprimé les subventions de financement de la science et de la technologie portant sur le thème de la DEI, Donald Trump veut mettre fin aux efforts en matière d'"IA woke". Pourtant, une technologie d'intelligence artificielle qui fonctionne bien pour les milliards de personnes de couleur dans le monde était l'objectif des éditeurs de modèles d'IA pour à rendre ses produits d'IA plus inclusifs.

À la Maison Blanche et au Congrès dirigé par les Républicains, l' "IA woke" a remplacé la discrimination algorithmique préjudiciable comme problème à résoudre. Les efforts déployés par le passé pour "faire progresser l'équité" dans le développement de l'IA et limiter la production de "résultats nuisibles et biaisés" font l'objet d'une enquête, selon les citations à comparaître envoyées à Amazon, Google, Meta, Microsoft, OpenAI et 10 autres entreprises technologiques en mars 2025 par la commission judiciaire de la Chambre des représentants.

Par ailleurs, la branche normative du ministère américain du commerce a supprimé les mentions relatives à l'équité, à la sécurité et à l'"IA responsable" dans son appel à la collaboration avec des chercheurs extérieurs. Il demande plutôt aux scientifiques de se concentrer sur la "réduction des préjugés idéologiques" de manière à "favoriser l'épanouissement humain et la compétitivité économique".

Pour rappel, il y a un an, Google a été vivement critiqué pour les réponses de Gemini, son IA de génération d'images. Les images générées par Gemini ont révélé ce qui pourrait constituer une correction excessive des problèmes de préjugés raciaux existant de longue date dans l'IA. Google été alors accusé de former son chatbot à être trop "woke".

Même cas pour ChatGPT d'OpenAI, en 2023, les conservateurs l'ont critiqué d'être "woke" et "gauchiste". Le chatbot aurait refusé de répondre à certaines de leurs questions sur une potentielle victoire de Donald Trump aux élections de 2022, de supposés problèmes de corruption de Joe Biden et sur les drag-queens (travestis). Ils ont également accusé ChatGPT de défendre les "valeurs de gauche".

Après s'être retirées de leurs programmes de diversité, d'équité et d'inclusion (DEI) sur le lieu de travail, les entreprises technologiques pourraient aujourd'hui être confrontées à une seconde remise en question de leur travail de DEI dans les produits d'IA.


D'une certaine manière, les travailleurs du secteur technologique sont habitués à ce que les priorités fixées par Washington affectent leur travail. Mais le dernier changement en date a suscité des inquiétudes parmi les experts du domaine, notamment Ellis Monk, sociologue à l'université de Harvard, qui, il y a plusieurs années, a été contacté par Google pour l'aider à rendre ses produits d'IA plus inclusifs.

À l'époque, l'industrie technologique savait déjà qu'elle avait un problème avec la branche de l'IA qui entraîne les machines à "voir" et à comprendre les images. La vision par ordinateur était très prometteuse sur le plan commercial, mais elle faisait écho aux préjugés historiques des anciennes technologies de prise de vue, qui présentaient les personnes noires et brunes sous un jour peu flatteur.

"Les Noirs ou les personnes à la peau plus foncée entraient dans l'image et nous avions parfois l'air ridicules", explique Ellis Monk, spécialiste du colorisme, une forme de discrimination fondée sur la couleur de la peau et d'autres caractéristiques. Google a adopté une échelle de couleurs inventée par Ellis Monk afin d'améliorer la manière dont ses outils d'imagerie artificielle représentent la diversité des teintes de peau humaine, en remplacement d'une norme vieille de plusieurs décennies, conçue à l'origine pour les médecins traitant des patients blancs en dermatologie. "Les consommateurs ont réagi très positivement à ces changements", a déclaré Ellis Monk.

Aujourd'hui, Ellis Monk se demande si de tels efforts se poursuivront à l'avenir. Bien qu'il ne pense pas que son échelle de couleur de peau Monk soit menacée parce qu'elle est déjà intégrée dans des dizaines de produits chez Google et ailleurs - y compris des téléphones avec appareil photo, des jeux vidéo, des générateurs d'images d'IA -, lui et d'autres chercheurs s'inquiètent que la nouvelle humeur refroidisse les initiatives et les financements futurs visant à améliorer le fonctionnement de la technologie pour tout le monde.

"Google veut que ses produits fonctionnent pour tout le monde, en Inde, en Chine, en Afrique, etc. Cette partie est en quelque sorte immunisée contre la DEI", a déclaré Ellis Monk. "Mais le financement futur de ce type de projets pourrait-il être réduit ? Absolument, si l'humeur politique change et s'il y a beaucoup de pression pour une mise sur le marché très rapide."

Donald Trump a supprimé des centaines de subventions dans les domaines de la science, de la technologie et de la santé en rapport avec les thèmes de la DEI, mais son influence sur le développement commercial des chatbots et d'autres produits d'IA est plus indirecte. En enquêtant sur les entreprises d'IA, le représentant républicain Jim Jordan, président de la commission judiciaire, a déclaré vouloir découvrir si l'administration de l'ancien président Joe Biden "a exercé des pressions ou s'est entendue avec elles" pour censurer des discours légitimes.

Michael Kratsios, directeur du Bureau de la politique scientifique et technologique de la Maison Blanche, a déclaré lors d'un événement au Texas que les politiques d'IA de Joe Biden "favorisaient les divisions sociales et la redistribution au nom de l'équité".

L'administration Trump a refusé d'accorder une interview à M. Kratsios, mais a cité plusieurs exemples de ce qu'il voulait dire. L'un d'entre eux était une ligne d'une stratégie de recherche sur l'IA de l'ère Biden qui disait : "Sans contrôles appropriés, les systèmes d'IA peuvent amplifier, perpétuer ou exacerber des résultats inéquitables ou indésirables pour les individus et les communautés."

Avant même l'entrée en fonction de Joe Biden, un nombre croissant de recherches et d'anecdotes personnelles attiraient l'attention sur les préjudices causés par les biais de l'IA.

Une étude a montré que la technologie des voitures autonomes a du mal à détecter les piétons à la peau plus foncée, ce qui les expose à un plus grand risque d'écrasement. Une autre étude a demandé à des générateurs de texte-image d'IA populaires de créer une image d'un chirurgien et a constaté qu'ils produisaient un homme blanc dans 98 % des cas, ce qui est bien plus élevé que les proportions réelles, même dans un domaine à forte prédominance masculine.

Un logiciel de déverrouillage des téléphones par reconnaissance faciale identifie mal les visages asiatiques. La police des villes américaines a arrêté à tort des hommes noirs sur la base de fausses correspondances de reconnaissance faciale. Il y a une dizaine d'années, l'application photos de Google a classé une photo de deux personnes noires dans une catégorie intitulée « gorilles ».

Même les scientifiques du gouvernement de la première administration Trump ont conclu en 2019 que la technologie de reconnaissance faciale fonctionnait de manière inégale en fonction de la race, du sexe ou de l'âge.

L'élection de Biden a propulsé certaines entreprises technologiques à accélérer leur focalisation sur l'équité de l'IA. L'arrivée en 2022 du ChatGPT d'OpenAI a ajouté de nouvelles priorités, déclenchant un boom commercial de nouvelles applications d'IA pour la composition de documents et la génération d'images, poussant des entreprises comme Google à relâcher leur prudence et à rattraper leur retard.

C'est alors qu'est apparu le chatbot Gemini de Google - et un lancement de produit défectueux l'année dernière qui allait en faire le symbole de l'"IA woke" que les conservateurs espéraient démanteler. Laissés à eux-mêmes, les outils d'IA qui génèrent des images à partir d'un message écrit ont tendance à perpétuer les stéréotypes accumulés à partir de toutes les données visuelles sur lesquelles ils ont été formés.

Celui de Google n'était pas différent, et lorsqu'on lui demandait de représenter des personnes exerçant diverses professions, il avait tendance à privilégier les visages et les hommes à la peau plus claire et, lorsqu'il s'agissait de femmes, les femmes plus jeunes, selon les recherches publiques menées par l'entreprise elle-même.

Google a tenté de mettre en place des garde-fous techniques pour réduire ces disparités avant de lancer le générateur d'images Gemini, il y a un peu plus d'un an. Il a fini par surcompenser les préjugés en plaçant des personnes de couleur et des femmes dans des contextes historiques inexacts, par exemple en répondant à une demande concernant les pères fondateurs américains par des images d'hommes vêtus au XVIIIe siècle qui semblaient être noirs, asiatiques et amérindiens. Google s'est rapidement excusé et a temporairement mis fin à cette fonctionnalité, mais l'indignation est devenue un cri de ralliement repris par la droite politique.

Avec Sundar Pichai, PDG de Google, assis à proximité, le vice-président JD Vance a profité d'un sommet sur l'IA à Paris en février pour décrier l'avancement "d'agendas sociaux carrément anhistoriques par le biais de l'IA", citant le moment où le générateur d'images de l'IA de Google "essayait de nous dire que George Washington était noir, ou que les soldats américains de la Première Guerre mondiale étaient, en fait, des femmes."

"Nous devons nous souvenir des leçons tirées de ce moment ridicule", a déclaré JD Vance lors du rassemblement. "Et ce que nous en retenons, c'est que l'administration Trump veillera à ce que les systèmes d'IA développés en Amérique soient exempts de préjugés idéologiques et ne restreignent jamais le droit de nos citoyens à la liberté d'expression."

Une ancienne conseillère scientifique de Biden qui a assisté à ce discours, Alondra Nelson, a déclaré que le nouvel accent mis par l'administration Trump sur le "biais idéologique" de l'IA est en quelque sorte une reconnaissance d'années de travail pour lutter contre les biais algorithmiques qui peuvent affecter le logement, les hypothèques, les soins de santé et d'autres aspects de la vie des gens.

"Fondamentalement, dire que les systèmes d'IA sont idéologiquement biaisés revient à dire que l'on identifie, reconnaît et se préoccupe du problème des biais algorithmiques, qui est le problème qui préoccupe nombre d'entre nous depuis longtemps", a déclaré Alondra Nelson, ancienne directrice par intérim du Bureau de la politique scientifique et technologique de la Maison Blanche, coauteur d'une série de principes visant à protéger les droits civils et les libertés civiles dans les applications de l'IA.

Mais Nelson ne voit pas beaucoup de place pour la collaboration dans le contexte du dénigrement des initiatives équitables en matière d'IA. "Je pense que dans cet espace politique, c'est malheureusement peu probable", a-t-elle déclaré. "Les problèmes qui ont été nommés différemment - la discrimination algorithmique ou les préjugés algorithmiques d'une part, et les préjugés idéologiques d'autre part - seront malheureusement considérés comme deux problèmes différents."

Pour rappel, les conservateurs ont toujours ChatGPT en horreur en raison de sa réticence à faire des suppositions ou des blagues sur la gauche, son aspect woke et sa partialité. Pour mettre en lumière les biais de ChatGPT, David Rozado, un scientifique des données en Nouvelle-Zélande, a créé en 2023 RightWingGPT, un modèle d'IA expérimental finement ajusté pour manifester des points de vue conservateurs. Les experts ont suggéré que son initiative montre que l'IA est déjà devenue un nouveau front dans les guerres politiques et culturelles qui secouent les différentes régions du monde.

Et vous ?

Pensez-vous que ces rapports sont crédibles ou pertinents ?
Quel est votre avis sur la situation ?

Voir aussi :

Meta pousse son modèle d'IA Llama 4 vers la droite et souhaite présenter « les deux bords politiques » à l'instar de Grok d'Elon Musk, estimant que « les LLM se situent dans la section gauche/libertaire »

Des farceurs se moquent des garde-fous de l'IA avec le chatbot satirique "Goody-2", conçu pour critiquer les IA « woke » en refusant de répondre aux questions au nom de l'extrême prudence éthique

Elon Musk déclare que Grok 2, le chatbot prétendument "anti-woke" qui s'est avéré surtout créer des infox et des vulgarités, sortira en Août, suivi de Grok 3 d'ici la fin de l'année
Vous avez lu gratuitement 6 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !