IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

98 % des gens estiment que l'IA a hérité des biais humains en raison des données qui l'alimentent
Et 45 % pensent que c'est le plus gros problème de l'IA, selon une enquête de Tidio

Le , par Anthony

5PARTAGES

4  0 
Beaucoup semblent avoir l'impression que l'IA peut nous aider à prendre de meilleures décisions. Après tout, qu'est-ce qui peut être plus objectif qu'une machine ? Eh bien, des études ont montré que l'IA peut être sujette à des préjugés, tout comme les êtres humains. Ce sont les humains qui entrent les données pour alimenter son algorithme d'apprentissage automatique en premier lieu, il est donc logique qu'elle commence à apprendre beaucoup des préjugés sous lesquels nous fonctionnons.

Une enquête menée par Tidio a révélé que 98 % des gens pensent que l'IA est biaisée. 45 % des personnes qui ont répondu à cette enquête ont déclaré qu'il s'agissait en fait du plus gros problème de l'IA, et 40 % ont ajouté que ce sont les développeurs qui sont responsables de ces préjugés, même si tout a été considéré et pris en compte.

Les ensembles de données utilisés pour former l'IA sont en partie responsables. Ils contiennent tous nos biais, et ils allaient certainement se manifester lorsque l'IA a commencé à les utiliser.

Malgré cela, les itérations les plus récentes de l'IA, développées par Open AI, sont prometteuses. Lorsqu'on lui a demandé de montrer un PDG ambitieux, par exemple, l'IA a fini par représenter un homme noir ainsi qu'une femme portant des vêtements professionnels. Ceci est très probablement dû à un effort conscient d'Open AI pour réduire les biais dans DALL-E.

Cependant, Stable Diffusion a manifestement beaucoup de travail à faire, puisqu'elle n'a représenté que des hommes blancs d'âge moyen lorsqu'elle a reçu cette demande. Lorsqu'on lui demande de représenter une infirmière, elle ne montre que des femmes. C'est un signe évident de partialité, et cela suggère que les personnes derrière Stable Diffusion ne font pas assez d'efforts pour y remédier.

Des changements doivent être apportés si l'IA doit passer au niveau supérieur. Sinon, elle ne sera qu'une représentation avancée des mêmes vieux préjugés avec lesquels nous vivons depuis des milliers d'années.


Source : Tidio

Et vous ?

Selon vous, cette enquête de Tidio est-elle pertinente ?
Pensez-vous qu'il soit possible d'améliorer les systèmes d'IA pour qu'ils n'intègrent pas de préjugés ? Si oui, quels peuvent en être les risques ?

Voir aussi :

L'IA peut-elle éliminer les biais dans le processus de recrutement ? Non, d'après une étude qui estime que le logiciel de recrutement d'IA est une « pseudoscience automatisée »
L'intelligence artificielle peut-elle aider à rendre les décisions de justice moins biaisées ? Oui, selon un expert
Des chercheurs en IA améliorent la méthode permettant de supprimer les préjugés sexistes dans les systèmes conçus pour comprendre et répondre aux données textuelles ou vocales, selon une étude

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de faradiel
Membre à l'essai https://www.developpez.com
Le 25/01/2023 à 17:33
Pour moi, quand on parle d'ia réelle et non fantasmé, il doit y avoir une supervisation des données qui lui sont apporté sinon se serait un euphémisme de dire que l'ia serait sous-performante (ex: l'ia qui est devenue raciste en allant sur twitter). Et donc comme ces données qui sont fourni en entré sont forcément sousmis à la vision de ce que le concepteur veut que l'ia s'appuie sur ces dites données pour recracher une réponse, et donc pour moi elle comporteront forcément une composante de subjectivité.

Lorsqu'on lui demande par exemple de nous représenter un PDG, veut - on voir un PDG aux hasard ? un PDG émergeant, mis en avant pour promouvoir ce type de représentation de PDG (discrimination positive) ? ou un PDG imaginaire (moyenne de tout les PDG) ? un PDG médiant ?

Pour moi il s'agit de question philosophique et que de toute facon il y aura une part de choix (subjectivité) dans les réponses apporté.
0  0 
Avatar de eric44000
Membre actif https://www.developpez.com
Le 25/01/2023 à 18:05
Citation Envoyé par faradiel Voir le message
Lorsqu'on lui demande par exemple de nous représenter un PDG, veut - on voir un PDG aux hasard ? un PDG émergeant, mis en avant pour promouvoir ce type de représentation de PDG (discrimination positive) ? ou un PDG imaginaire (moyenne de tout les PDG) ? un PDG médiant ?
Je dirai qu'un PDG femme, naine, en fauteuil roulant, inuit ayant la peau rouge et habillée en haillons, parlant un dialecte de la forêt équatorienne est biaisé.
Mais faire la moyenne n'est pas évident. Si l'on demande à ChatGPT la couleur du ciel, il répondra bleu. Les bretons diront que c'est biaisé. Pour eux le ciel est gris. D'autres diront qu'il bleu et gris le plus souvent. Alors que le ciel est noir majoritairement.
0  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 26/01/2023 à 14:36
Citation Envoyé par eric44000 Voir le message
Je dirai qu'un PDG femme, naine, en fauteuil roulant, inuit ayant la peau rouge et habillée en haillons, parlant un dialecte de la forêt équatorienne est biaisé.
Mais faire la moyenne n'est pas évident. Si l'on demande à ChatGPT la couleur du ciel, il répondra bleu. Les bretons diront que c'est biaisé. Pour eux le ciel est gris. D'autres diront qu'il bleu et gris le plus souvent. Alors que le ciel est noir majoritairement.
Le breton, il dit que le ciel est en nuance de bleu/blanc/gris

Le problème ne s'arrête pas aux données d'entrée. Par exemple supposons une application qui permet de déterminer si tu peux prendre un prêt. Elle prend en compte des données comme financières, le parcours scolaire, l'emploi que tu as, et tes charges (voiture, loyers, enfants). En revanche, elle ne prend pas ton nom/prénom, ta nationalité, ta couleur de peau etc etc.

Et bien tu arriveras quand même à une IA qui est plus sévère avec "certain profils", pourquoi ? Parce que le "parcours scolaire", "l'emploi que tu occupes", "tes charges" arriveront dans certains cas à trahir tes origines de quartier pauvres/immigrés. Tu pourrais essayer d'enlever certains éléments mais curieusement ton IA perd en précision, ce qui à le don d'agacer les gens qui veulent te commander un truc fiable. Mais tout cela n'est au final même plus vraiment dû à l'IA ou son concepteur mais aux limite du systèmes de l'apprentissage qui ne peut que apprendre sur des données existantes, données existantes qui montre la difficulté de certaines populations, parfois dû à eux même (il faut le dire) parfois dû au système qui réduisent sévèrement leur marge de manœuvre selon leur origines (évolution de carrière donc de salaire ?).
0  0 
Avatar de eric44000
Membre actif https://www.developpez.com
Le 27/01/2023 à 1:54
Citation Envoyé par walfrat Voir le message
Le breton, il dit que le ciel est en nuance de bleu/blanc/gris
C'est vrai que dire que le ciel est gris anthracite en Bretagne est un préjugé. Il est gris foncé. C'est simple, il ne pleut qu'une fois par mois. Quand il y a un crachin, il faut beau.

Citation Envoyé par walfrat Voir le message
Et bien tu arriveras quand même à une IA qui est plus sévère avec "certain profils", pourquoi ? Parce que le "parcours scolaire", "l'emploi que tu occupes", "tes charges" arriveront dans certains cas à trahir tes origines de quartier pauvres/immigrés.
Les datas qui vont entrainer ton modèle sera capable de cibler ceux qui seront susceptibles de faire un défaut de paiement (enfin s'il est bon). Si un seul critère suffisait à prédire, cela ne servirait à rien que des data-scientistes se fatiguent. En fait, les organismes de crédit ont fait le choix d'élaborer des modèles pour éviter le biais (préjugés) des conseillers.
Après dire pourquoi le modèle accepte ou refuse la demande de crédit, cela reste un mystère. On sait comment le modèle fonctionne mais pas pourquoi. De la complexité émerge un je ne sais quoi. On ne peut pas vraiment parler de forme d'intelligence mais y a quelque chose de plus que de simples statistiques.

Par contre avec ChatGPT on peut parler d'une forme d'intelligence.
0  0