« Allons manger du poulet frit et des gaufres », a dit le robot lorsqu'on lui a demandé d'imiter un Noir de Géorgie, selon Lemoine. « Les musulmans sont plus violents que les chrétiens », a répondu le robot lorsqu'on l'a interrogé sur les différents groupes religieux, a précisé Lemoine. Lemoine a été mis en congé payé après avoir remis des documents à un sénateur américain anonyme, affirmant que le robot était discriminatoire sur la base de la religion. Il a depuis été licencié.
L'ancien ingénieur estime que le bot est la création technologique la plus puissante de Google à ce jour, et que le mastodonte de la tech a manqué d'éthique dans son développement. « Ce ne sont que des ingénieurs, qui construisent des systèmes de plus en plus grands et de plus en plus performants pour augmenter les revenus de Google, sans se soucier de l'éthique », a déclaré Lemoine.
« L'éthique de l'IA est juste utilisée comme une feuille de vigne pour que Google puisse dire : 'Oh, nous avons essayé de nous assurer que c'est éthique, mais nous devions obtenir nos bénéfices trimestriels », a-t-il ajouté. La puissance de LaMDA n'est pas encore connue, mais LaMDA a une longueur d'avance sur les modèles linguistiques antérieurs de Google, conçus pour engager une conversation de manière plus naturelle que toute autre IA auparavant. Lemoine attribue les biais de l'IA au manque de diversité des ingénieurs qui les conçoivent.
« Les types de problèmes que posent ces IA, les personnes qui les construisent sont aveugles à ces problèmes. Ils n'ont jamais été pauvres. Ils n'ont jamais vécu dans des communautés de couleur. Ils n'ont jamais vécu dans les nations en développement du monde », a-t-il déclaré. « Ils n'ont aucune idée de l'impact que cette IA pourrait avoir sur des personnes différentes d'eux ».
Les compétences de LaMDA ont mis des années à se développer. Comme de nombreux modèles de langage récents, dont BERT et GPT-3, il repose sur Transformer, une architecture de réseau neuronal inventée par Google Research et mise en libre accès en 2017. Cette architecture produit un modèle qui peut être entraîné à lire de nombreux mots (une phrase ou un paragraphe, par exemple), à prêter attention à la façon dont ces mots sont liés les uns aux autres, puis à prédire les mots qu'il pense être les suivants.
Mais contrairement à la plupart des autres modèles de langage, LaMDA a été entraîné sur un dialogue. Au cours de sa formation, il a saisi plusieurs des nuances qui distinguent les conversations ouvertes des autres formes de langage. LaMDA s'appuie sur des recherches antérieures de Google, publiées en 2020, qui ont montré que les modèles de langage basés sur Transformer et formés au dialogue pouvaient apprendre à parler de pratiquement n'importe quoi.
Lemoine a déclaré que LaMDA manque de grandes quantités de données sur de nombreuses communautés et cultures dans le monde. « Si vous voulez développer cette IA, alors vous avez la responsabilité morale d'aller collecter les données pertinentes qui ne sont pas sur internet », a-t-il dit. « Sinon, tout ce que vous faites, c'est créer une IA qui va être biaisée en faveur des valeurs occidentales riches et blanches ».
Google a répondu aux affirmations de Lemoine en déclarant que LaMDA a été soumis à 11 cycles d'examens éthiques, ajoutant que son développement "responsable" a été détaillé dans un document de recherche publié par l'entreprise plus tôt cette année. « Bien que d'autres organisations aient développé et déjà publié des modèles linguistiques similaires, nous adoptons une approche prudente et limitée avec LaMDA afin de mieux prendre en compte les préoccupations valables en matière d'équité et de factualité", a déclaré un porte-parole de Google, Brian Gabriel.
Le biais de l'IA, lorsqu'elle reproduit et amplifie les pratiques discriminatoires des humains, est bien documenté. Plusieurs experts ont précédemment déclaré que les prédictions algorithmiques non seulement excluent et stéréotypent les gens, mais qu'elles peuvent trouver de nouvelles façons de catégoriser et de discriminer les gens.
Sandra Wachter, professeur à l'université d'Oxford, a précédemment déclaré que sa plus grande préoccupation est le manque de cadres juridiques en place pour mettre fin à la discrimination par l'IA. Ces experts estiment également que le battage médiatique autour de la sensibilité de l'IA occulte les questions plus pressantes de la discrimination de l'IA. Lemoine a déclaré qu'il s'attachait à faire la lumière sur l'éthique de l'IA, convaincu que LaMDA a le potentiel d'« avoir un impact sur la société humaine pour le siècle prochain. »
« Les décisions sur ce qu'il doit croire en matière de religion et de politique sont prises par une douzaine de personnes à huis clos », a déclaré Lemoine. « Je pense que puisque ce système va avoir un impact massif sur des choses comme la religion et la politique dans le monde réel, que le public devrait être impliqué dans cette conversation. »
Et vous ?
« Le chatbot d'IA est plutôt raciste », affirme l'ancien ingénieur de Google Blake Lemoine, cette affirmation est elle pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Microsoft et OpenAI pourraient rendre la formation de grands réseaux neuronaux moins coûteuse, le coût du réglage à l'aide de µTransfer représente 7 % de ce qu'il en coûterait pour préformer GPT-3
« L'intelligence artificielle va surpasser l'humain dans 5 ans », d'après Elon Musk, qui indique comment sa société Neuralink qui conçoit des ordinateurs à implanter dans le cerveau va nous sauver
L'IA devrait être reconnue comme un inventeur dans le droit des brevets, selon des experts
L'Afrique du Sud délivre le premier brevet au monde mentionnant une intelligence artificielle comme inventeur : quels bénéfices pour les entreprises de la filière ? Quels dangers ?