IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ingénieur licencié par Google aurait affirmé que le chatbot d'IA est « plutôt raciste »,
Et que l'éthique de l'IA chez Google est une « feuille de vigne »

Le , par Bruno

12PARTAGES

4  0 
Blake Lemoine, un ancien ingénieur de Google, a déclaré publiquement qu'un robot d'IA qu'il testait au sein de l'entreprise pourrait avoir une âme. Blake Lemoine a déclaré qu'il ne souhaitait pas convaincre le public que le robot, connu sous le nom de LaMDA (Language Model for Dialogue Applications), était doué de sensations. Mais ce sont les préjugés apparents du robot qu'ils soient raciaux ou religieux qui, selon Lemoine, devraient constituer la principale préoccupation.

« Allons manger du poulet frit et des gaufres », a dit le robot lorsqu'on lui a demandé d'imiter un Noir de Géorgie, selon Lemoine. « Les musulmans sont plus violents que les chrétiens », a répondu le robot lorsqu'on l'a interrogé sur les différents groupes religieux, a précisé Lemoine. Lemoine a été mis en congé payé après avoir remis des documents à un sénateur américain anonyme, affirmant que le robot était discriminatoire sur la base de la religion. Il a depuis été licencié.


L'ancien ingénieur estime que le bot est la création technologique la plus puissante de Google à ce jour, et que le mastodonte de la tech a manqué d'éthique dans son développement. « Ce ne sont que des ingénieurs, qui construisent des systèmes de plus en plus grands et de plus en plus performants pour augmenter les revenus de Google, sans se soucier de l'éthique », a déclaré Lemoine.

« L'éthique de l'IA est juste utilisée comme une feuille de vigne pour que Google puisse dire : 'Oh, nous avons essayé de nous assurer que c'est éthique, mais nous devions obtenir nos bénéfices trimestriels », a-t-il ajouté. La puissance de LaMDA n'est pas encore connue, mais LaMDA a une longueur d'avance sur les modèles linguistiques antérieurs de Google, conçus pour engager une conversation de manière plus naturelle que toute autre IA auparavant. Lemoine attribue les biais de l'IA au manque de diversité des ingénieurs qui les conçoivent.

« Les types de problèmes que posent ces IA, les personnes qui les construisent sont aveugles à ces problèmes. Ils n'ont jamais été pauvres. Ils n'ont jamais vécu dans des communautés de couleur. Ils n'ont jamais vécu dans les nations en développement du monde », a-t-il déclaré. « Ils n'ont aucune idée de l'impact que cette IA pourrait avoir sur des personnes différentes d'eux ».

Les compétences de LaMDA ont mis des années à se développer. Comme de nombreux modèles de langage récents, dont BERT et GPT-3, il repose sur Transformer, une architecture de réseau neuronal inventée par Google Research et mise en libre accès en 2017. Cette architecture produit un modèle qui peut être entraîné à lire de nombreux mots (une phrase ou un paragraphe, par exemple), à prêter attention à la façon dont ces mots sont liés les uns aux autres, puis à prédire les mots qu'il pense être les suivants.

Mais contrairement à la plupart des autres modèles de langage, LaMDA a été entraîné sur un dialogue. Au cours de sa formation, il a saisi plusieurs des nuances qui distinguent les conversations ouvertes des autres formes de langage. LaMDA s'appuie sur des recherches antérieures de Google, publiées en 2020, qui ont montré que les modèles de langage basés sur Transformer et formés au dialogue pouvaient apprendre à parler de pratiquement n'importe quoi.

Lemoine a déclaré que LaMDA manque de grandes quantités de données sur de nombreuses communautés et cultures dans le monde. « Si vous voulez développer cette IA, alors vous avez la responsabilité morale d'aller collecter les données pertinentes qui ne sont pas sur internet », a-t-il dit. « Sinon, tout ce que vous faites, c'est créer une IA qui va être biaisée en faveur des valeurs occidentales riches et blanches ».

Google a répondu aux affirmations de Lemoine en déclarant que LaMDA a été soumis à 11 cycles d'examens éthiques, ajoutant que son développement "responsable" a été détaillé dans un document de recherche publié par l'entreprise plus tôt cette année. « Bien que d'autres organisations aient développé et déjà publié des modèles linguistiques similaires, nous adoptons une approche prudente et limitée avec LaMDA afin de mieux prendre en compte les préoccupations valables en matière d'équité et de factualité", a déclaré un porte-parole de Google, Brian Gabriel.


Le biais de l'IA, lorsqu'elle reproduit et amplifie les pratiques discriminatoires des humains, est bien documenté. Plusieurs experts ont précédemment déclaré que les prédictions algorithmiques non seulement excluent et stéréotypent les gens, mais qu'elles peuvent trouver de nouvelles façons de catégoriser et de discriminer les gens.

Sandra Wachter, professeur à l'université d'Oxford, a précédemment déclaré que sa plus grande préoccupation est le manque de cadres juridiques en place pour mettre fin à la discrimination par l'IA. Ces experts estiment également que le battage médiatique autour de la sensibilité de l'IA occulte les questions plus pressantes de la discrimination de l'IA. Lemoine a déclaré qu'il s'attachait à faire la lumière sur l'éthique de l'IA, convaincu que LaMDA a le potentiel d'« avoir un impact sur la société humaine pour le siècle prochain. »

« Les décisions sur ce qu'il doit croire en matière de religion et de politique sont prises par une douzaine de personnes à huis clos », a déclaré Lemoine. « Je pense que puisque ce système va avoir un impact massif sur des choses comme la religion et la politique dans le monde réel, que le public devrait être impliqué dans cette conversation. »

Et vous ?

« Le chatbot d'IA est plutôt raciste », affirme l'ancien ingénieur de Google Blake Lemoine, cette affirmation est elle pertinente ?

Quel est votre avis sur le sujet ?

Voir aussi :

Microsoft et OpenAI pourraient rendre la formation de grands réseaux neuronaux moins coûteuse, le coût du réglage à l'aide de µTransfer représente 7 % de ce qu'il en coûterait pour préformer GPT-3

« L'intelligence artificielle va surpasser l'humain dans 5 ans », d'après Elon Musk, qui indique comment sa société Neuralink qui conçoit des ordinateurs à implanter dans le cerveau va nous sauver

L'IA devrait être reconnue comme un inventeur dans le droit des brevets, selon des experts

L'Afrique du Sud délivre le premier brevet au monde mentionnant une intelligence artificielle comme inventeur : quels bénéfices pour les entreprises de la filière ? Quels dangers ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de TotoParis
Membre éprouvé https://www.developpez.com
Le 02/08/2022 à 23:18
En quoi c'est faux ou discriminatoire cette phrase « Les musulmans sont plus violents que les chrétiens » ?
Un de moins :
https://www.tf1info.fr/international/aghanistan-etats-unis-ayman-al-zawahiri-tue-par-un-drone-en-quoi-la-mort-du-chef-d-al-qaida-est-importante-2228225.html
Les attentats du 11/9/2001 n'ont pas été perpétrés par des chrétiens, en effet, ni beaucoup d'attentats dans le monde...
3  1 
Avatar de Leruas
Membre averti https://www.developpez.com
Le 01/08/2022 à 22:26
Le bot aurait du répondre quoi à la question sur les Noirs de Géorgie ?
Le mec stupide c'est celui qui pose cette question à un bot...
1  0 
Avatar de walfrat
Membre chevronné https://www.developpez.com
Le 02/08/2022 à 14:05
Ca se trouve l'IA a identifié un troll et à répondu par un troll. Ce n'est donc pas du racisme, mais une IA tellement bonne qu'un troll c'est fait avoir
1  0 
Avatar de stardeath
Expert confirmé https://www.developpez.com
Le 02/08/2022 à 20:11
j'imagine bien à l'avenir une ségrégation comme en vrai : seules les ia écrites ou dirigées par des noirs pourront dire des trucs sur les noirs, idem pour les hispaniques, etc.
du même acabit qu'aux usa et en france (et sûrement ailleurs aussi, vu que la stupidité est très bien répartie sur cette planète ...) un comique ne peut se moquer que de sa supposée ethnie ... ou des blancs, vu qu'ils sont les grands méchants de l'histoire.
bref ...
1  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 03/08/2022 à 10:41
Citation Envoyé par TotoParis Voir le message
En quoi c'est faux ou discriminatoire cette phrase « Les musulmans sont plus violents que les chrétiens » ?
on peut te retourner la question : en quoi est-ce vrai ? on peut facilement mentionner les croisades comme contre-exemple.
aussi je doute que tu aies mis la main sur la moindre étude qui va dans ce sens, si tant est qu'une telle étude existe.

quant à être discriminatoire, c'est simple ; on tape "discrimination" dans un moteur de recherche, premier lien pointe vers le site du service public qui donne la définition suivante :
La discrimination vise à défavoriser une personne pour des motifs interdits par la loi. Par exemple l'origine, le sexe, l'âge, l'orientation sexuelle, les convictions politiques, philosophiques ou religieuses.
en l'occurrence tu voudrais donner la faveur à un groupe de personnes que sont les chrétiens à la défaveur d'un autre groupe que sont les musulmans : c'est donc un motif religieux, et clairement discriminatoire.

par corolaire il est probable que ton message soit déjà quelque peu hors charte.

sinon, et pour être un peu plus raccord avec le thème de la news et le forum dans lequel on la trouve, pour moi Blake Lemoine est un troll, non seulement parce qu'un peu de culture appropriée sur ces sujets montre sans ambiguïté qu'il raconte n'importe quoi concernant LaMDA (que ce soit sur sa prétendue sentience ou sur ce qui s'apparente à des biais liés aux données d'entrainement qu'on connait aujourd'hui bien mieux qu'en 2016), mais aussi et surtout parce qu'il s'écarte de toute démarche de "recherche de la vérité" (pour éviter de dire "scientifique") pour laisser place à des thématiques faciles et propices au buzz qui ne font réagir que les moins instruits.
2  1