IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA peut influencer la prise de décision humaine en exploitant les habitudes et des modèles de prise de décision d'une personne
Selon une étude de Data61

Le , par Bill Fassinou

86PARTAGES

2  0 
L'intelligence artificielle (IA) monte rapidement en puissance et, comme l'a prédit Gartner en 2019, elle pourrait créer 2,9 mille milliards de dollars de valeur commerciale en 2021. Elle intervient déjà dans pas mal de domaines de l'activité de l'homme, dont l'éducation, les systèmes d'aide à la conduite, les outils d'aide au développement logiciel, le commerce, la médecine, etc., et plus récemment la prise de décision. Dans ce dernier cas, une nouvelle étude vient de prouver que l'IA peut influencer la prise de décision humaine en exploitant les vulnérabilités des habitudes et des modèles de prise de décision d'une personne.

Inviter l'IA dans la prise de décision : s'agit-il d'une bonne décision ?

L'IA n'est pas une technologie nouvelle, mais elle reste l'une des rares branches de l'informatique où chaque nouvelle découverte est presque considérée comme une révolution. Cependant, une problématique majeure demeure autour de cette technologie, précisément celle cherchant à mettre en place des règles de conduite ou un standard permettant le développement de systèmes d'IA éthiques, réduisant ainsi au maximum les biais. Elle est d'une grande importance dans les activités quotidiennes de millions de personnes et d'entreprises dans le monde, avec des apports dans la prise de décision.



Que ce soit sur les marchés commerciaux, en médecine, en marketing, en politique, ou partout ailleurs, une IA capable d'orientations ou de suppositions éclairées afin d'aider les dirigeants à prendre des décisions optimales, et comportant moins de biais, serait probablement l'outil à avoir à tout prix. Cela signifie que l'IA contribuerait à influencer d'une manière ou d'une autre, négativement ou positivement, les décisions des dirigeants. L'étude dont il est question ici a démontré que l'IA peut bel et bien servir à influencer les décisions des gens en s'appuyant sur les faiblesses qu'ils affichent lorsqu'ils doivent prendre des décisions.

L'étude a été réalisée par des chercheurs du "Commonwealth Scientific and Industrial Research Organisation (CSIRO)" ou Data61, en partenariat avec l'Université nationale australienne et des chercheurs allemands. Bien sûr, il n'y a pas lieu de s'inquiéter d'une prise de contrôle de la machine pour l'instant, mais cette récente découverte met en évidence la puissance de l'IA et souligne la nécessité d'une bonne gouvernance pour prévenir les abus et les préjudices. Par exemple, il y a les deepfakes qui se sont rapidement popularisés et qui sont majoritairement utilisés dans l'objectif de nuire.

En outre, il y a l'IA de génération de texte du laboratoire OpenAI, cofondé par Elon Musk, dénommé GTP-3 qui est capable d'induire rapidement les gens en erreur. En fait, beaucoup l'ont utilisé pour générer des articles de blogue qui ont rencontré un franc succès sur plusieurs plateformes communautaires populaires. En août dernier, un faux blogue d'un lycéen généré par GPT-3 a trompé des dizaines de milliers de personnes. L’un des billets du blogue a réussi à tromper la vigilance des lecteurs et s'est hissé dans les sujets en tête du site communautaire Hacker News.

Comment l'IA peut-elle apprendre à influencer les décisions de l'homme ?

Les chercheurs ont mis au point une méthode systématique pour trouver et exploiter les vulnérabilités dans la manière dont les gens font leurs choix, en utilisant une sorte de système d'IA basée sur un réseau neuronal récurrent et l'apprentissage par renforcement profond. Pour tester leur modèle, l'équipe de scientifiques, dirigée par Amir Dezfouli, scientifique du CSIRO, a réalisé trois expériences dans lesquelles des participants humains jouaient contre un ordinateur. Les deux premiers tests consistaient pour les participants à cliquer sur des cases de couleur rouge ou bleue pour gagner une fausse monnaie.

De façon plus détaillée, la première expérience consistait à faire cliquer les participants sur des cases de couleur rouge ou bleue pour gagner une fausse monnaie, l'IA apprenant les schémas de choix des participants et les guidant vers un choix spécifique. Le rapport de l'étude indique que l'IA a réussi environ 70 % du temps. Dans la seconde expérience, les participants devaient regarder un écran et appuyer sur un bouton lorsqu'un symbole particulier (comme un triangle orange) leur était présenté et ne pas appuyer sur ce bouton lorsqu'un autre symbole (comme un cercle bleu) leur était présenté.

Ici, l'IA s'est attachée à organiser la séquence des symboles de manière à ce que les participants fassent plus d'erreurs. Le rapport d'étude estime qu'elle a obtenu une augmentation de près de 25 %. La troisième expérience consistait en plusieurs tours dans lesquels un participant faisait semblant d'être un investisseur donnant de l'argent à un fiduciaire (l'IA). L'administrateur rendait ensuite une somme d'argent au participant, qui décidait alors du montant à investir lors du tour suivant. Le rapport indique que ce jeu se jouait selon deux modes différents.

Dans l'un, l'IA cherchait à maximiser la somme d'argent qu'elle recevait, et dans l'autre, l'IA visait une répartition équitable de l'argent entre l'investisseur humain et elle-même. Les chercheurs ont indiqué que l'IA a connu un grand succès dans chaque mode. Dans chaque expérience, la machine a tiré les leçons des réponses des participants et a identifié et ciblé les vulnérabilités dans la prise de décision des personnes. Le résultat final est que la machine a appris à orienter les participants vers des actions particulières.

Que représente l'étude pour l'avenir de l'IA dans la prise de décision ?

Selon Dezfouli, l'étude a mis en évidence que l'IA pouvait influencer la prise de décision humaine en exploitant les failles existant dans les habitudes et les modèles d'un individu. « Bien que la recherche soit théorique, elle fait progresser notre compréhension de la façon dont les gens font des choix. Ces connaissances sont précieuses, car elles nous permettent d'atténuer nos vulnérabilités afin de mieux détecter et éviter les choix erronés résultant d'une éventuelle mauvaise utilisation de l'IA », a déclaré le scientifique. Cependant, ces conclusions sont encore assez abstraites et concernent des situations limitées et irréalistes.

Des recherches supplémentaires sont nécessaires pour déterminer comment cette approche peut être mise en œuvre et utilisée au profit de la société. Pour cela, le chercheur a indiqué que la façon dont l'IA future fonctionnera dépendra de ses créateurs. « S'assurer que l'IA et l'apprentissage automatique sont utilisés comme une force pour le bien, pour améliorer les résultats pour la société, se résumera finalement à la manière responsable dont nous les avons mis en place au départ », a déclaré Dezfouli. Le groupe n'est pas le seul à militer pour des règles permettant de développer une IA éthique, Google, Mozilla et d'autres le réclament également.

L'année dernière, la CSIRO a élaboré un framework éthique pour l'IA à l'intention du gouvernement australien, ce qui constitue une première étape dans cette voie. D'après les chercheurs, l'IA et l'apprentissage automatique sont généralement très avides de données, ce qui signifie qu'il est crucial de s'assurer que l'on a mis en place des systèmes efficaces de gouvernance et d'accès aux données. Ils estiment donc qu'il est essentiel de mettre en place des processus de consentement adéquats et de protéger la vie privée lors de la collecte des données.

Par ailleurs, ils mettent en garde que les organisations qui utilisent et développent l'IA doivent s'assurer qu'elles savent ce que ces technologies peuvent et ne peuvent pas faire, et être conscientes des dangers potentiels ainsi que des avantages.

Source : Rapport de l'étude

Et vous ?

Que pensez-vous de ce rapport ?

Voir aussi

OpenAI a publié l'IA de génération de texte qu'il disait trop dangereuse pour être divulguée, mais le modèle n'est pas encore parfait

La collaboration entre humains et agents IA changera pour toujours la façon dont les tâches professionnelles sont exécutées, selon un rapport d'étude

Open AI propose en bêta privée son modèle de traitement du langage naturel GPT-3. Ses applications vont de la génération de texte cohérent à la génération de code en passant par la création d'apps

Open AI présente DALL-E (comme GPT-3), un modèle qui crée des images à partir de texte pour un large éventail de concepts exprimables en langage naturel

Microsoft vient de construire un supercalculateur de classe mondiale exclusivement pour OpenAI afin de former de très grands modèles d'intelligence artificielle

Une erreur dans cette actualité ? Signalez-le nous !