L'IA, dans son sens le plus large, est la forme d'intelligence dont font preuve les systèmes informatiques. Il s'agit d'un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis.
Un grand modèle de langage (LLM) est, quant à lui, un type de modèle d'apprentissage automatique conçu pour les tâches de traitement du langage naturel telles que la génération de langage. Les LLM sont des modèles de langage comportant de nombreux paramètres et sont formés par apprentissage auto-supervisé sur une grande quantité de texte.
Dans un avenir proche, les assistants d'IA pourraient prévoir et influencer nos décisions à un stade précoce et vendre ces « intentions » en temps réel aux entreprises qui peuvent en tirer profit, avant même que nous ayons pris notre décision.
C'est ce qu'affirment des éthiciens de l'IA du Leverhulme Centre for the Future of Intelligence (LCFI) de l'université de Cambridge, qui indiquent que nous sommes à l'aube d'un « nouveau marché, lucratif mais troublant, des signaux numériques d'intention », allant de l'achat de billets de cinéma au vote pour des candidats. C'est ce que ces scientifiques ont dénommé l'« économie de l'intention ».
L'économie de l'intention est présentée par les chercheurs du LCFI comme le successeur de l'économie de l'attention, où les réseaux sociaux gardent les utilisateurs accros à leurs plateformes et leur servent des publicités. L'économie de l'intention implique que les entreprises technologiques spécialisées dans l'IA vendent au plus offrant ce qu'elles savent des motivations de leurs cibles, qu'il s'agisse de projets de séjour dans un hôtel ou d'opinions sur un candidat politique.
L'étude affirme que les grands modèles de langage (LLM), la technologie qui sous-tend les outils d'IA tels que le chatbot ChatGPT, seront utilisés pour « anticiper et orienter » les utilisateurs sur la base de « données intentionnelles, comportementales et psychologiques ». Les annonceurs pourront ainsi utiliser des outils d'IA générative pour créer des publicités en ligne sur mesure, indique le rapport.
Les modèles d'IA pourront également adapter leurs résultats en fonction des « flux de données générées par les utilisateurs », selon l'étude, citant des recherches montrant que les modèles peuvent déduire des informations personnelles à partir d'échanges quotidiens et même « orienter » les conversations afin d'obtenir davantage d'informations personnelles.
Les chercheurs du LCFI de Cambridge affirment que l'explosion de l'IA générative et notre familiarité croissante avec les chatbots ouvrent une nouvelle frontière aux « technologies persuasives », comme l'indiquent les récentes annonces faites par les géants de la technologie.
Les agents d'IA « anthropomorphiques », qu'il s'agisse d'assistants de chatbot, de tuteurs numériques ou de petites amies, auront accès à de vastes quantités de données psychologiques et comportementales intimes, souvent glanées par le biais d'un dialogue informel et conversationnel.
Selon les chercheurs, cette IA combinera la connaissance de nos habitudes en ligne avec une capacité étonnante à s'adapter à nous d'une manière que nous trouvons réconfortante - en imitant des personnalités et en anticipant les réponses souhaitées - afin d'établir des niveaux de confiance et de compréhension qui permettront la manipulation sociale à l'échelle industrielle.
« Des ressources considérables sont consacrées au positionnement d'assistants d'IA dans tous les domaines de la vie, ce qui devrait soulever la question de savoir quels sont les intérêts et les objectifs de ces soi-disant assistants », a déclaré le Dr Yaqub Chaudhary, chercheur invité au LCFI.
« Ce que les gens disent lorsqu'ils conversent, la manière dont ils le disent et le type d'inférences qui peuvent être faites en temps réel en conséquence sont bien plus intimes que les simples enregistrements des interactions en ligne. Nous mettons en garde contre le fait que des outils d'IA sont déjà en cours de développement pour susciter, déduire, collecter, enregistrer, comprendre, prévoir et, en fin de compte, manipuler et commercialiser les plans et les objectifs humains. »
Le Dr Jonnie Penn, historien des technologies au LCFI de Cambridge, a déclaré :
Pendant des décennies, l'attention a été la monnaie de l'internet. Partager son attention avec des plateformes de médias sociaux telles que Facebook et Instagram a été le moteur de l'économie en ligne.
À moins d'être réglementée, l'économie de l'intention traitera vos motivations comme la nouvelle monnaie. Ce sera une ruée vers l'or pour ceux qui ciblent, pilotent et vendent les intentions humaines.
Nous devrions commencer à réfléchir à l'impact probable d'un tel marché sur les aspirations humaines, notamment des élections libres et équitables, une presse libre et une concurrence loyale sur le marché, avant de devenir les victimes de ses conséquences involontaires.
À moins d'être réglementée, l'économie de l'intention traitera vos motivations comme la nouvelle monnaie. Ce sera une ruée vers l'or pour ceux qui ciblent, pilotent et vendent les intentions humaines.
Nous devrions commencer à réfléchir à l'impact probable d'un tel marché sur les aspirations humaines, notamment des élections libres et équitables, une presse libre et une concurrence loyale sur le marché, avant de devenir les victimes de ses conséquences involontaires.
« Si certaines intentions sont fugaces, la classification et le ciblage des intentions qui persistent seront extrêmement rentables pour les annonceurs », a déclaré Yaqub Chaudhary.
Dans une économie de l'intention, les grands modèles de langage pourraient être utilisés pour cibler, à faible coût, la cadence, la politique, le vocabulaire, l'âge, le sexe, l'historique en ligne et même les préférences en matière de flatterie et de gratitude d'un utilisateur, écrivent les chercheurs.
Cette collecte d'informations serait associée à des réseaux d'enchères pour maximiser la probabilité d'atteindre un objectif donné, tel que la vente d'une sortie au cinéma ("Vous avez dit que vous vous sentiez surmené, puis-je vous réserver cette place de cinéma dont nous avons parlé ?").
Selon Penn et Chaudhary, cela pourrait inclure l'orientation des conversations au service de plateformes, d'annonceurs, d'entreprises et même d'organisations politiques particulières.
Bien que les chercheurs affirment que l'économie de l'intention est actuellement une « aspiration » pour l'industrie technologique, ils suivent les signes précurseurs de cette tendance à travers les recherches publiées et les allusions faites par plusieurs grands acteurs de la technologie.
Ceux-ci incluent un appel ouvert pour « des données qui expriment l'intention humaine... dans n'importe quelle langue, sujet et format » dans un billet de blog d'OpenAI en 2023, tandis que le directeur des produits de Shopify - un partenaire d'OpenAI - a parlé de l'arrivée de chatbots « pour obtenir explicitement l'intention de l'utilisateur » lors d'une conférence la même année.
Le PDG de Nvidia a parlé publiquement de l'utilisation des LLM pour comprendre l'intention et le désir, tandis que Meta a publié la recherche « Intentonomy », un ensemble de données pour la compréhension de l'intention humaine, en 2021.
En 2024, le nouveau framework de développement « App Intents » d'Apple pour connecter les applications à Siri (l'assistant personnel à commande vocale d'Apple), inclut des protocoles pour « prédire les actions que quelqu'un pourrait entreprendre à l'avenir » et « suggérer l'intention de l'application à quelqu'un à l'avenir en utilisant les prédictions que vous [le développeur] fournissez ».
« Les agents d'IA tels que CICERO de Meta sont censés atteindre le niveau humain dans le jeu de diplomatie, qui dépend de l'inférence et de la prédiction des intentions, et de l'utilisation d'un dialogue persuasif pour faire avancer sa position », a déclaré Yaqub Chaudhary.
« Ces entreprises vendent déjà notre attention. Pour obtenir un avantage commercial, la suite logique est d'utiliser la technologie qu'elles sont en train de développer pour prévoir nos intentions et vendre nos désirs avant même que nous ayons pleinement compris ce qu'ils sont », a-t-il ajouté.
Jonnie Penn souligne que ces développements ne sont pas nécessairement mauvais, mais qu'ils ont le potentiel d'être destructeurs. « La sensibilisation du public à ce qui se prépare est essentielle pour s'assurer que nous ne nous engageons pas sur la mauvaise voie », a-t-il déclaré.
C'est notamment vrai lorsqu'on observe la montée en puissance des influenceurs virtuels pilotés par l'IA dans ce secteur traditionnellement dominés par les humains. En effet, les influenceuses virtuelles animées par l'IA prennent de plus en plus de place aux humains actifs dans cette filière, ravivant le débat sur les avantages et les inconvénients de cette tendance.
Source : Leverhulme Centre for the Future of Intelligence (LCFI) de Cambridge
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous les conclusions de cette étude de l'université de Cambridge crédibles ou pertinentes ?
Voir aussi :
L'IA est de plus en plus utilisée dans les campagnes d'influence en ligne, mais son impact serait limité d'après Mandiant
L'IA serait sur le point de transformer l'Internet en un véritable cauchemar, un outil à double tranchant pour le web : créativité ou manipulation ?
Une agence espagnole de mannequins crée une influenceuse pilotée par l'IA qui rapporte jusqu'à 11 000 $ par mois, la société affirme qu'elle en avait assez des influenceurs humains et de leur égo