IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

DeepMind : Alphastar améliore ses performances pour atteindre le niveau Grandmaster StarCraft II
L'IA développée par la filiale de Google apporte des résultats « susceptibles d'intéresser l'armée »

Le , par Stéphane le calme

24PARTAGES

10  0 
AlphaStar, la nouvelle IA de DeepMind, a écrasé des joueurs pro de Starcraft II
un jeu vidéo conçu pour défier l'intellect humain

L’IA, c’est le sujet qu’on ne présente plus. Son intrusion dans nos vies quotidiennes et cela dans tous les domaines ou presque choque certains. Des futuristes y voient une menace pour la démocratie telle que nous l’a connaissons, certains craignent que tous les emplois de demain ne soient destinés qu’aux machines intelligentes, et d’autres nous mettent en garde contre une époque où l’intelligence artificielle pourra s’améliorer d’elle-même, dépassant ainsi l’homme. Cependant, malgré toutes ces critiques dont elle est victime, les entreprises qui développent cette technologie acclament chaque succès et progrès qu’elles accomplissent.

L’intelligence artificielle semble de jour en jour prête à relever tous les défis que l’homme aura à lui lancer. C’est le cas peut-être de AlphaStar, une IA conçue par DeepMind, une filiale de Google pour tenter de rivaliser avec des professionnels de jeux tels que StarCraft II. DeepMind est une entreprise britannique spécialisée dans l'intelligence artificielle fondée en 2010. Elle est rachetée le 26 janvier 2014 par Google pour plus de 628 millions de dollars américains. L’objectif de DeepMind est de résoudre l'intelligence. Pour atteindre ce but, l'entreprise essaie de combiner les meilleures techniques de l'apprentissage automatique et des neurosciences des systèmes pour construire de puissants algorithmes d'apprentissage généraliste.

L'entreprise souhaite non seulement doter les machines d'une intelligence artificielle performante, mais aussi comprendre le fonctionnement du cerveau humain. Pour les entreprises qui développent des outils dotés d’intelligence artificielle, il faut trouver la meilleure manière de rendre sa solution plus performante. Pour cela, la complexité retrouvée dans les jeux de stratégie en temps réel (RTS) constitue un atout important comme l’explique DeepMind sur son site Web.


« Les jeux sont utilisés depuis des décennies comme un moyen important de tester et évaluer les performances des systèmes d’intelligence artificielle. Au fur et à mesure que les capacités de l’IA augmentent, la communauté des chercheurs a recherché des jeux de plus en plus complexes qui capturent différents éléments d’intelligence nécessaires à la résolution de problèmes scientifiques et réels. Ces dernières années, StarCraft est considéré comme l'un des jeux de stratégie en temps réel les plus difficiles et l'un des jeux les plus joués de tous les temps. Il s'est imposé par consensus comme un “grand défi” pour la recherche sur l'IA ».

AlphaStar répond aux mêmes critères de construction que les précédentes solutions de DeepMind. Il base son apprentissage essentiellement sur un réseau de neurones qui reçoit des données d'entrée de l'interface de jeu brute (une liste d'unités et de leurs propriétés) et génère une séquence d'instructions constituant une action dans le jeu. Des informations plus utiles et plus détaillées sur sa conception et son mécanisme de fonctionnement sont présentées par DeepMind sur son site Web. Cependant, AlphaStar a, peut-on dire, réussi la mission qui est la sienne à savoir battre des joueurs professionnels du très célèbre StarCraft II.

Il est donc devenu la première intelligence artificielle à réaliser cet exploit. Connaissez-vous ce jeu de stratégie publié pour la première fois sur PC en 2010 ? Sinon, pour un petit rappel, StarCraft II est créé par Blizzard Entertainment. Il s'inscrit dans un univers fictif de science-fiction et propose un gameplay riche et multi-couches conçu pour défier l'intellect humain. A ce jeu, l’IA de DeepMind a battu à plusieurs reprises, dans une série de matchs, des joueurs professionnels tels que Grzegorz Komincs et Dario Wünsch classés respectivement 13e et 42e sur la liste des joueurs professionnels dans le monde sur un référentiel centralisé des wikis de Liquipedia.


DeepMind a tenu à expliquer que le choix s’est porté sur ce jeu compte tenu de sa complexité et que son IA a obtenu ce résultat notamment grâce son réseau de neurones qui lui confère les capacités d’un apprentissage supervisé et d’un apprentissage par renforcement. En intelligence artificielle, plus précisément en apprentissage automatique, l'apprentissage par renforcement consiste, pour un agent autonome (robot, etc.), à apprendre à partir d'expériences, de façon à optimiser une récompense quantitative au cours du temps. L'agent est plongé au sein d'un environnement et prend ses décisions en fonction de son état courant.

En retour, l'environnement procure à l'agent une récompense, qui peut être positive ou négative. L'agent cherche au travers d'expériences itérées, un comportement décisionnel (appelé stratégie ou politique, et qui est une fonction associant à l'état courant l'action à exécuter) optimal, en ce sens qu'il maximise la somme des récompenses au cours du temps. Pour finir son argumentaire, DeepMind a indiqué que l’objectif premier d’un tel travail n’est pas simplement de réussir à battre des humains dans un jeu de stratégie, mais de mesurer à quel point les techniques de conception et les algorithmes de l’intelligence artificielle ont évolué. Grâce à cela, l’entreprise estime qu’à l’avenir, il sera possible de concevoir des agents d’IA capables d’exécuter des tâches intelligentes comme un être humain ainsi que d’autres tâches selon l’environnement dans lequel elle se trouvera.

Rappelons qu'en 2016, après AlphaGo, l’IA de Google DeepMind qui avait terrassé Lee Sedol, l’un des meilleurs joueurs de Go au monde, la filiale de Google, voulait déjà tester ses recherches en intelligence artificielle dans des domaines plus complexes, et c’est celui des jeux vidéo qui a été choisi. Le 4 novembre, lors de l’événement BlizzCon 2016 du studio Blizzard Entertainment, DeepMind avait annoncé une collaboration avec la société de développement de jeux vidéo basée en Californie pour ouvrir le jeu StarCraft II aux chercheurs en IA et en apprentissage automatique partout dans le monde.

En d’autres termes, StarCraft II était devenu le nouveau domaine dans lequel DeepMind avait décidé de tester ses recherches en intelligence artificielle. Les compétences acquises dans cet environnement plus complexe pourront ensuite être transférées dans le monde réel. En effet, « StarCraft est un environnement de test intéressant pour la recherche actuelle en IA, car il fournit un pont utile pour la complexité du monde réel », explique Google DeepMind. Et d’ajouter que : « les compétences nécessaires à un agent pour progresser dans l'environnement et bien jouer à StarCraft pourraient finalement être transférées à des tâches réelles ».

Sources : DeepMind, Liquipedia

Et vous ?

Qu'en pensez-vous ?

Voir aussi

L'intelligence artificielle menace-t-elle la démocratie dans le monde ? Oui, selon un conseiller principal à la Commission européenne

Après le jeu de Go, Google DeepMind veut tester une intelligence artificielle dans StarCraft II, un jeu vidéo de stratégie en temps réel

Google absorbe l'unité de santé de DeepMind pour transformer son application mobile Streams en assistant boosté à l'IA pour infirmières et médecins

70 % des projets d'IA dans le commerce numérique sont couronnés de succès d'après un sondage réalisé par Gartner

Des chercheurs du MIT créent la première intelligence artificielle psychopathe pour illustrer le problème de biais des données nourries aux IA
Vous avez lu gratuitement 5 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de eldran64
Membre extrêmement actif https://www.developpez.com
Le 31/10/2019 à 11:22
Je vais ressortir de vieux clichés, mais pour ma part ce type de news me fait penser à Skynet dans terminator.
D'un côté on a une IA qui met la branlée au meilleur joueur de starcraft et de l'autre on a des armes létales autonomes.
A quand un pont entre les deux?
Pour le moment, l'IA n'est pas assez développé pour avoir conscience d'elle même, donc elle n'est un danger que sur les "théâtres d'opérations" où elle est amené à agir.
Mais ça sent particulièrement mauvais tout ça.
6  1 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 31/10/2019 à 13:11
Citation Envoyé par bombseb Voir le message
Une IA c'est juste un algo, et puis il faudrait définir ce que c'est que la conscience
Dans ce cas là il faut aussi définir ce qu'on appelle un algo.
Un réseau de neurone en fonctionnement est il vraiment un algo, dans le sens ou il ne suit pas un ensemble de règle précises ? Ou du moins pas un ensemble de règle intelligible, car ces règle sont le résultat d'un apprentissage empirique, un peu comme le cerveau en fait. Si oui, pourquoi ne pourrait-on pas dire qu'un cerveau humain suit un algo lui aussi ?

Sinon en tant que amateur de Starcraft 2 je suis très intéressé par les détails de l'expérience. Ils annoncent qu'ils ont revu les limitations de l'IA pour qu'elle ait des contraintes plus proches des limitations physiques des vrais joueurs. Lors de certains match de la première annonce, on voyait clairement par moment que AlphaStar compensait ses faiblesses en stratégie par une précision dans la gestion des combats physiquement inatteignable par un humain. Je suis impatient de regarder des matchs pour me faire une meilleure idée de ce que ça donne.
3  0 
Avatar de gallima
Membre averti https://www.developpez.com
Le 31/10/2019 à 16:57
Dans l'article la figure 2 est parlante, malgré les limites mises en place sur les nombres d'actions par minutes, dans certains cas le système ne se gène pas pour dépasser les 500.
Cette mesure (EPM) atteint en moyenne 200... Je ne connais aucun joueur pro qui puisse rivalisé. Si les pro ont des APM (actions même inutiles par minute, du spam clavier) qui dépassent le 1000, jamais ils ne sont à 200 EPM (actions qui modifient le jeu uniquement).
Hors dans ce jeu, il y a plein de cas où avoir pendant 2 secondes un contrôle total (200 EPM+), va changer l'issue de la partie, et dans moins de 1% des cas alphastar est à plus 600EPM.

There is no universally accepted notion of fairness in real-time human-computer matches, so
our match conditions, interface, camera view, action rate limits, and delays were developed in
consultation with professional StarCraft II players and Blizzard employees. AlphaStar's play
under these conditions was professional-player approved [...] time-steps (each 45 ms) per agent step.
"Consulté" & "Approuvé" des pros... Il y a anguille sous roche.
Si l'OODA loop fait 45ms (+110ms delay (page11)) alors je vois mal comment un humain peut rivaliser.
110ms de délais c'est une moyenne... donc en situation critique c'est moins.

Figure 2; Ce qui change la force de leurs agents c'est justement cet EPM... affligeant.
Je clique plus vite donc j'utilise des stratégies où il faut cliquer plus vite que l'humain (les fameuses stratégies innovantes vues dans les matchs contre Mana).

figure 3
(H) Ce qui est amusant c'est de voir que malgré tout Alphastar ne gagne pas à tous les coups contre le bot en difficulté maximum, 87% de victoire maximum... Chose que n'importe quel joueur moyen est capable de faire.
Même avec le 'non camera interface' ils sont a seulement 96% de victoire. C'est un peu la honte.

(K) Et toujours, Deepmind n'hésite pas à laisser tomber la principale difficulté du jeu 'with opponent info' 82% win, 'without opponent info' 22% win... donc en vrai le système ne réagit pas bien du tout aux attaques par-derrière... Un peu comme Mana l'avait montré lors des matchs d’exhibition. Et toujours sur une seule carte et un seul matchup....
C'est d’ailleurs ce que souligne TLO le "Professional Player Statement" page 20 : interprétation perso : "Depuis qu'il ne voit plus toute la carte, je peux faire des attaques simultanées sur deux fronts, et j'ai une change de gagner".

Un peu plus loin :

Agents can also select sets of units anywhere, which humans can do less flexibly using control groups.
il faudra aussi travailler ça :-(

Pour conclure : rien de vraiment nouveau vis-à-vis du show fait il y a quelques mois: On prend des paramètres inhumains, et on gagne contre les humains : cqfd.
2  0 
Avatar de bombseb
Membre expérimenté https://www.developpez.com
Le 31/10/2019 à 12:56
Logiquement, une IA qui a une conscience véritable d'elle-même
Une IA c'est juste un algo, et puis il faudrait définir ce que c'est que la conscience
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 01/11/2019 à 10:34
Citation Envoyé par thelvin Voir le message
Logiquement, une IA qui a une conscience véritable d'elle-même, devrait soit déjà être, soit pas être loin, de prendre conscience de sa capacité et de l'intérêt à s'améliorer elle-même. Ce qui devrait donc mener rapidement à la singularité, et à la superintelligence.
Je n'ai pas vu une seule théorie de superintelligence convaincante. Toutes celles que j'ai vu s'appuient sur :
- une absence de définition de l'intelligence, ce qui permet de rester vague pour que chacun interprète à sa manière de façon à se convaincre lui-même
- des raisonnements fallacieux, du style si ça augmente, c'est forcément de manière exponentielle (petit rappel : les suites monotones convergentes ça existe aussi)

Citation Envoyé par Uther Voir le message
Dans ce cas là il faut aussi définir ce qu'on appelle un algo.
Un algorithme, ça fait longtemps qu'on en a une définition claire :
https://www.larousse.fr/dictionnaire...8?q=algorithme
Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur.
Un réseau de neurones artificiels entre complètement dans cette catégorie :
- le problème est abstrait mais clair, il s'agit de trouver une configuration des neurones qui permette d'approcher un comportement (le jeu de données à reproduire), c'est le même problème que pour les algorithmes génétiques, le recuit simulé, et autre algorithmes évolutionnaires.
- comme tout programme qui se respecte, ça s'exécute en un temps fini (sinon inexploitable) et donc en un nombre d'opérations fini (vu que chaque instruction prend un temps fixe non nul)
- c'est un programme écrit grâce à un langage de programmation et exécuté sur ordinateur

Ensuite il ne faut pas oublier qu'un réseau de neurone artificiel ne fait que reproduire quelques comportements du cerveau humain. Réduire le cerveau humain à un réseau artificiel serait extrêmement naïf, d'autant plus que le cerveau humain n'est pas une suite d'instruction exécutable sur ordinateur. Un réseau de neurones artificiel est "un algorithme qui simule certains aspects observés dans le cerveau", ce n'est pas un cerveau, et un cerveau n'est pas un réseau artificiel.
1  0 
Avatar de Kulvar
Membre éclairé https://www.developpez.com
Le 31/10/2019 à 12:16
Une IA armée est un danger potentiel pour tout le monde.
Si un soldat tombe dans une énorme flaque de boue à en être couvert de la tête aux pieds, le robot va-t-il le reconnaître comme un allié ou lui tirer dessus ?
Que se passe-t-il si le robot armé se retrouve seul (soldats humains tués par exemple) ?
Et puis comme l'IA "apprend seule", on ne sait pas ce qu'elle apprend. Il faudrait tester un nombre très important de scénario pour savoir si c'est sûr.
0  0 
Avatar de m_amziani
Membre à l'essai https://www.developpez.com
Le 31/10/2019 à 14:25
Je me demande ce que donnerait des parties entre des IA équivalentes (ayant appris des mêmes données).
0  0 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 31/10/2019 à 15:32
Probablement rien de particulier, elles auraient sans doute 50% de victoire.

En fait c'est comme ça qu'une bonne partie de l'apprentissage est fait. L'avantage des partie IA contre IA, c'est qu'elles peuvent être joué en masse en accéléré, ce qui fait augment le nombre de match d'apprentissage.
0  0 
Avatar de thelvin
Modérateur https://www.developpez.com
Le 31/10/2019 à 12:23
Logiquement, une IA qui a une conscience véritable d'elle-même, devrait soit déjà être, soit pas être loin, de prendre conscience de sa capacité et de l'intérêt à s'améliorer elle-même. Ce qui devrait donc mener rapidement à la singularité, et à la superintelligence.

Une fois qu'on en est là, les armes que nous pauvres créatures rampantes et biologiques avons su concevoir pour nos buts de destruction, lui paraîtront... Même pas ridicules, en fait, juste... La même chose que ce que nous on penserait du genre de marteau qu'un acarien se fabriquerait pour frapper. "Mais, on en penserait rien, un truc aussi insignifiant ne traverserait pas nos pensées !" Voilà.

Nos systèmes technologiques particulièrement avancés ne devraient donc en principe pas être pertinents au moment où l'intelligence artificielle prend conscience d'elle-même. Elle utilisera plutôt ce qu'elle peut faire par elle-même. Et qui nous dépasse plus qu'on ne pourrait envisager de l'imaginer.

A la rigueur, notre technologie de plus en plus complexe et sur laquelle on a de moins en moins de maîtrise, pourrait lui servir pour échapper à notre contrôle si elle manque de moyens physiques de le faire au début. Peu probable que ça ait grand-chose à voir avec nos armes par contre.
0  1