
Selon des chercheurs de l'université de Cambridge, les outils d'intelligence artificielle (IA) pourraient être utilisés pour manipuler les audiences en ligne afin de prendre des décisions, qu'il s'agisse de savoir quoi acheter ou pour qui voter. Les agents conversationnels d'IA, en particulier, pourraient influencer secrètement les intentions humaines, créant ainsi une nouvelle frontière commerciale que les chercheurs appellent l'« économie de l'intention ».
L'IA, dans son sens le plus large, est la forme d'intelligence dont font preuve les systèmes informatiques. Il s'agit d'un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis.
Un grand modèle de langage (LLM) est, quant à lui, un type de modèle d'apprentissage automatique conçu pour les tâches de traitement du langage naturel telles que la génération de langage. Les LLM sont des modèles de langage comportant de nombreux paramètres et sont formés par apprentissage auto-supervisé sur une grande quantité de texte.
Dans un avenir proche, les assistants d'IA pourraient prévoir et influencer nos décisions à un stade précoce et vendre ces « intentions » en temps réel aux entreprises qui peuvent en tirer profit, avant même que nous ayons pris notre décision.
C'est ce qu'affirment des éthiciens de l'IA du Leverhulme Centre for the Future of Intelligence (LCFI) de l'université de Cambridge, qui indiquent que nous sommes à l'aube d'un « nouveau marché, lucratif mais troublant, des signaux numériques d'intention », allant de l'achat de billets de cinéma au vote pour des candidats. C'est ce que ces scientifiques ont dénommé l'« économie de l'intention ».
L'économie de l'intention est présentée par les chercheurs du LCFI comme le successeur de l'économie de l'attention, où les réseaux sociaux gardent les utilisateurs accros à leurs plateformes et leur servent des publicités. L'économie de l'intention implique que les entreprises technologiques spécialisées dans l'IA vendent au plus offrant ce qu'elles savent des motivations de leurs cibles, qu'il s'agisse de projets de séjour dans un hôtel ou d'opinions sur un candidat politique.
L'étude affirme que les grands modèles de langage (LLM), la technologie qui sous-tend les outils d'IA tels que le chatbot ChatGPT, seront utilisés pour « anticiper et orienter » les utilisateurs sur la base de « données intentionnelles, comportementales et psychologiques ». Les annonceurs pourront ainsi utiliser des outils d'IA générative pour créer des publicités en ligne sur mesure, indique le rapport.
Les modèles d'IA pourront également adapter leurs résultats en fonction des « flux de données générées par les utilisateurs », selon l'étude, citant des recherches montrant que les modèles peuvent déduire des informations personnelles à partir d'échanges quotidiens et même « orienter » les conversations afin d'obtenir davantage d'informations personnelles.
Les chercheurs du LCFI de Cambridge affirment que l'explosion de l'IA générative et notre familiarité croissante avec les chatbots ouvrent une nouvelle frontière aux « technologies persuasives », comme l'indiquent les récentes annonces faites par les géants de la technologie.
Les agents d'IA « anthropomorphiques », qu'il s'agisse d'assistants de chatbot, de tuteurs numériques ou de petites amies, auront accès à de vastes quantités de données psychologiques et comportementales intimes, souvent glanées par le biais d'un dialogue informel et conversationnel.
Selon les chercheurs, cette IA combinera la connaissance de nos habitudes en ligne avec une capacité étonnante à s'adapter à nous d'une manière que nous trouvons réconfortante - en imitant des personnalités et en anticipant les réponses souhaitées - afin d'établir des niveaux de confiance et de compréhension qui permettront la manipulation sociale à l'échelle industrielle.
« Des ressources considérables sont consacrées au positionnement d'assistants d'IA dans tous les domaines de la vie, ce qui devrait soulever la question de savoir quels sont les intérêts et les objectifs de ces soi-disant assistants », a déclaré le Dr Yaqub Chaudhary, chercheur invité au LCFI.
« Ce que les gens disent lorsqu'ils conversent, la manière dont ils le disent et le type d'inférences qui peuvent être faites en temps réel en conséquence sont bien plus intimes que les simples enregistrements des interactions en ligne. Nous mettons en garde contre le fait que des outils d'IA sont déjà en cours de développement pour susciter, déduire, collecter, enregistrer, comprendre, prévoir et, en fin de compte, manipuler et commercialiser les plans et les objectifs humains. »
Le Dr Jonnie Penn, historien des technologies au LCFI de Cambridge, a déclaré :
Pendant des décennies, l'attention a été la monnaie de l'internet. Partager son attention avec des plateformes de médias sociaux telles que Facebook et Instagram a été le moteur de l'économie en ligne.
À moins d'être réglementée, l'économie de l'intention traitera vos motivations comme la nouvelle monnaie. Ce sera une ruée vers l'or pour ceux qui ciblent, pilotent et vendent les intentions humaines.
Nous devrions commencer à réfléchir à l'impact probable d'un tel marché sur les aspirations humaines, notamment des élections libres et équitables, une presse libre et une concurrence loyale sur le marché, avant de devenir les victimes de ses conséquences involontaires.
« Si certaines intentions sont fugaces, la classification et le ciblage des intentions qui persistent seront extrêmement rentables pour les annonceurs », a déclaré Yaqub Chaudhary.
Dans une économie de l'intention, les grands modèles de langage pourraient être utilisés pour cibler, à faible coût, la cadence, la politique, le vocabulaire, l'âge, le sexe, l'historique en ligne et même les préférences en matière de flatterie et de gratitude d'un utilisateur, écrivent les chercheurs.
Cette collecte d'informations serait associée à des réseaux d'enchères pour maximiser la probabilité d'atteindre un objectif donné, tel que la vente d'une sortie au cinéma ("Vous avez dit que vous vous sentiez surmené, puis-je vous réserver cette place de cinéma dont nous avons parlé ?"

Selon Penn et Chaudhary, cela pourrait inclure l'orientation des conversations au service de plateformes, d'annonceurs, d'entreprises et même d'organisations politiques particulières.
Bien que les chercheurs affirment que l'économie de l'intention est actuellement une « aspiration » pour l'industrie technologique, ils suivent les signes précurseurs de cette tendance à travers les recherches publiées et les allusions faites par plusieurs grands acteurs de la technologie.
Ceux-ci incluent un appel ouvert pour « des données qui expriment l'intention humaine... dans n'importe quelle langue, sujet et format » dans un billet de blog d'OpenAI en 2023, tandis que le directeur des produits de Shopify - un partenaire d'OpenAI - a parlé de l'arrivée de chatbots « pour obtenir explicitement l'intention de l'utilisateur » lors d'une conférence la même année.
Le PDG de Nvidia a parlé publiquement de l'utilisation des LLM pour comprendre l'intention et le désir, tandis que Meta a publié la...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.