Meta, la société mère de Facebook, a présenté mardi Cicero, un agent d'IA qui serait capable de jouer au jeu de stratégie classique Diplomacy à un niveau comparable à celui de la plupart des joueurs humains. L'équipe de Cicero la présente comme une IA qui négocie, persuade et coopère avec les gens en se basant sur le langage naturel. Il s'agit d'une réalisation importante dans le domaine du traitement du langage naturel (TLN), car le jeu exige des compétences approfondies en matière de négociation interpersonnelle, ce qui implique que Cicero a acquis une certaine maîtrise du langage nécessaire pour gagner la partie. Mais l'on craint qu'elle soit détournée de son usage initial.Cicero : une IA qui serait capable de jouer au jeu de stratégie Diplomacy comme des humains
Avant que Deep Blue ne batte Garry Kasparov aux échecs en 1997, les jeux de société constituaient déjà une mesure utile des réalisations de l'IA. En 2015, une autre barrière est tombée lorsqu'AlphaGo a battu le maître du Go, Lee Sedol. Ces deux jeux suivent un ensemble relativement clair de règles analytiques (bien que les règles du Go soient généralement simplifiées pour l'IA par ordinateur). Mais avec Diplomacy, une grande partie du gameplay implique des compétences sociales. Les joueurs doivent faire preuve d'empathie, utiliser un langage naturel et établir des relations pour gagner, une tâche potentiellement difficile pour un joueur informatique.
Développé dans les années 1950 et actuellement publié par Hasbro, Diplomacy est axé sur la communication et la négociation entre les joueurs, qui jouent le rôle de sept puissances européennes au début du XXe siècle. Il est considéré par certains joueurs comme le moyen idéal de perdre ses amis. Diplomacy simule la prise de territoires sur une carte de l'Europe. Plutôt que de jouer à tour de rôle, les joueurs écrivent leurs mouvements à l'avance et les exécutent simultanément. Pour éviter de faire des mouvements qui sont bloqués parce qu'un adversaire a fait un contre mouvement, les joueurs communiquent entre eux en privé.
Ils discutent des actions coordonnées potentielles, puis inscrivent leurs mouvements sur papier, en respectant ou en violant les engagements pris envers les autres joueurs. L'accent mis par Diplomacy sur la communication, la confiance et la trahison en fait un défi différent des jeux plus axés sur les règles et les ressources comme les échecs et le Go. Dans cette optique, Meta s'est demandé : « pouvons-nous construire des agents plus efficaces et plus flexibles, capables d'utiliser le langage pour négocier, persuader et travailler avec les gens pour atteindre des objectifs stratégiques, comme le font les humains ? ».
Dans un billet de blogue publié mardi, Meta affirme que Cicero est essentiellement un chatbot qui peut négocier avec d'autres joueurs de Diplomacy pour effectuer des mouvements efficaces dans le jeu. Selon l'entreprise, Cicero a acquis ses compétences en jouant à une version en ligne de Diplomacy sur webDiplomacy.net. Au fil du temps, il serait devenu un maître du jeu, obtenant "plus du double du score moyen" des joueurs humains et se classant parmi les 10 % de personnes ayant joué plus d'une fois. Les chercheurs de Meta affirment que "Cicero manipule avec soin le langage naturel et est capable de tromper les joueurs humains".
« Diplomacy est considéré depuis des décennies comme un grand défi quasi impossible en matière d'IA, car elle exige des joueurs qu'ils maîtrisent l'art de comprendre les motivations et les perspectives des autres, qu'ils élaborent des plans complexes et ajustent leurs stratégies, et qu'ils utilisent le langage naturel pour conclure des accords avec d'autres personnes, les convaincre de former des partenariats et des alliances, et plus encore. Cicero est si efficace pour utiliser le langage naturel afin de négocier avec les gens dans Diplomacy qu'ils ont souvent préféré travailler avec Cicero plutôt qu'avec d'autres participants humains », a déclaré Meta.
Cicero serait capable de coopérer avec les joueurs humains ou de les tromper
Alors que les agents d'IA pour des jeux comme les échecs peuvent être entraînés par le biais de l'apprentissage par renforcement, la modélisation du jeu coopératif de Diplomacy a nécessité une technique différente. Selon Meta, l'approche classique impliquerait un apprentissage supervisé, par lequel un agent serait formé à l'aide de données étiquetées provenant de parties de Diplomacy passées. Mais l'apprentissage supervisé seul produit un agent d'IA crédule qui peut être facilement manipulé par des joueurs menteurs. L'entreprise a annoncé que ses chercheurs ont mis en place une nouvelle approche plus adaptée à Diplomacy.
Pour créer Cicero, Meta a rassemblé des modèles d'IA pour le raisonnement stratégique (similaire à AlphaGo) et le traitement du langage naturel (similaire à GPT-3) et les a intégrés dans un seul agent. Pendant chaque partie, Cicero examine l'état du plateau de jeu et l'historique des conversations et prédit comment les autres joueurs vont agir. Il élabore un plan qu'il exécute grâce à un modèle de langage capable de générer un dialogue de type humain, ce qui lui permet de se...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.