IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« La partie est terminée » : DeepMind de Google estime avoir fait une percée en IA qui se rapproche de l'intelligence humaine
Grâce à son « agent généraliste » baptisé Gato

Le , par Stéphane le calme

95PARTAGES

9  0 
L'intelligence artificielle au niveau humain est sur le point d'être enfin atteinte, selon un chercheur principal de la division DeepMind AI de Google. Le Dr Nando de Freitas a déclaré que « la partie est terminée » dans la quête de plusieurs décennies pour réaliser l'intelligence artificielle générale (IAG) après que DeepMind a dévoilé un système d'IA capable d'accomplir un large éventail de tâches complexes, de l'empilement de blocs à l'écriture de poésie. Décrit comme un « agent généraliste », le nouveau Gato AI de DeepMind doit simplement être mis à l'échelle afin de créer une IA capable de rivaliser avec l'intelligence humaine, a estimé le Dr de Freitas. Mais son enthousiasme n'est pas partagé par tous.

Des chercheurs de DeepMind, une filiale d'Alphabet opérant dans la recherche sur l'IA, ont mis au point un agent généraliste. Voici les notes qu'ils ont écrites sur Gato, le nom donné à cet agent :

« Inspirés par les progrès de la modélisation du langage à grande échelle, nous appliquons une approche similaire à la construction d'un agent généraliste unique au-delà du domaine des sorties de texte. L'agent, que nous appelons Gato, fonctionne comme une police généraliste multimodale, multitâche et multi-incarnation. Le même réseau avec les mêmes poids peut jouer à Atari, sous-titrer des images, discuter, empiler des blocs avec un vrai bras de robot et bien plus encore, en décidant en fonction de son contexte s'il faut sortir du texte, des couples articulaires, des pressions sur des boutons ou d'autres jetons.


« Pendant la phase de formation de Gato, les données de différentes tâches et modalités sont sérialisées en une séquence plate de jetons, regroupées et traitées par un réseau neuronal transformateur similaire à un grand modèle de langage. La perte est masquée de sorte que Gato prédit uniquement les cibles d'action et de texte.


« Lors du déploiement de Gato, une invite, telle qu'une démonstration, est symbolisée, formant la séquence initiale. Ensuite, l'environnement produit la première observation, qui est également symbolisée et ajoutée à la séquence. Gato échantillonne le vecteur d'action de manière autorégressive, un jeton à la fois. Une fois que tous les jetons composant le vecteur d'action ont été échantillonnés (déterminés par la spécification d'action de l'environnement), l'action est décodée et envoyée à l'environnement qui effectue une étape et produit une nouvelle observation. Ensuite, la procédure se répète. Le modèle voit toujours toutes les observations et actions précédentes dans sa fenêtre de contexte de 1024 jetons ».

« Les humains ne développeront pas une intelligence artificielle générale de notre vivant », selon un journaliste

Tristan Greene est journaliste pour le compte de The Next Web. Suite à la présentation de Gato, il a affiché son scepticisme de voir créer une intelligence artificielle générale :

« DeepMind a dévoilé aujourd'hui un nouveau système d'IA multimodal capable d'effectuer plus de 600 tâches différentes. Surnommé Gato, il s'agit sans doute du kit d'apprentissage automatique tout-en-un le plus impressionnant jamais vu au monde. Et bien qu'il reste à voir exactement dans quelle mesure il fonctionnera une fois que les chercheurs et les utilisateurs extérieurs aux laboratoires DeepMind auront mis la main dessus, Gato semble être tout ce que GPT-3 souhaite qu'il soit et plus encore.

« Voici pourquoi cela me rend triste : GPT-3 est un large-language mode (LLM) produit par OpenAI, la société d'intelligence artificielle générale (IAG) la mieux financée au monde. Cependant, avant de pouvoir comparer GPT-3 et Gato, nous devons comprendre d'où viennent OpenAI et DeepMind en tant qu'entreprises.

« OpenAI est une idée originale d'Elon Musk, elle a reçu des milliards en soutien de Microsoft, et le gouvernement américain pourrait fondamentalement se soucier moins de ce qu'il fait en matière de réglementation et de surveillance. Gardant à l'esprit que le seul but d'OpenAI est de développer et de contrôler une IAG (c'est une IA capable de faire et d'apprendre tout ce qu'un humain pourrait, avec le même accès), il est un peu dommage que tout ce que l'entreprise a réussi à produire soit un LLM vraiment fantaisiste.

« Ne vous méprenez pas, GPT-3 est impressionnant. En fait, il est sans doute aussi impressionnant que le Gato de DeepMind, mais cette évaluation nécessite quelques nuances.

« OpenAI a emprunté la voie LLM sur son chemin vers l'IAG pour une raison simple : personne ne sait comment faire fonctionner une IAG.

« Tout comme il a fallu du temps entre la découverte du feu et l'invention du moteur à combustion interne, comprendre comment passer de l'apprentissage en profondeur à l'IAG ne se fera pas du jour au lendemain.

« GPT-3 est un exemple d'IA qui peut au moins faire quelque chose qui semble humain : elle génère du texte.

« Ce que DeepMind a fait avec Gato est, eh bien, à peu près la même chose. Il a pris quelque chose qui fonctionne un peu comme un LLM et l'a transformé en un illusionniste capable de plus de 600 formes de prestidigitation. Comme Mike Cook, du collectif de recherche Knives and Paintbrushes, l'a récemment dit :

"Cela semble excitant que l'IA soit capable d'effectuer toutes ces tâches qui semblent très différentes, car pour nous, il semble que l'écriture de texte soit très différente du contrôle d'un robot. Mais en réalité, ce n'est pas trop différent de GPT-3 qui comprend la différence entre le texte anglais ordinaire et le code Python. Cela ne veut pas dire que c'est facile, mais pour l'observateur extérieur, cela peut sembler que l'IA peut aussi faire une tasse de thé ou apprendre facilement dix ou cinquante autres tâches, et elle ne peut pas faire ça".

« Fondamentalement, Gato et GPT-3 sont tous deux des systèmes d'IA robustes, mais aucun d'eux n'est capable d'intelligence générale.

« Voici mon problème : à moins que vous ne pariez sur l'apparition d'une IAG à la suite d'un acte de chance aléatoire – le film Court-circuit me vient à l'esprit – il est probablement temps pour tout le monde de réévaluer son calendrier sur l'IAG. Je ne dirais pas qu'elle ne sera "jamais" développée, car c'est l'un des seuls mots maudits de la science. Mais cela donne l'impression que l'IAG ne sera pas développée de notre vivant.

« DeepMind travaille sur l'IAG depuis plus d'une décennie et sur OpenAI travaille sur le sujet depuis 2015. Et aucun des deux n'a été en mesure de résoudre le tout premier problème sur la voie de la résolution de l'IAG : construire une IA capable d'apprendre de nouvelles choses sans formation.

« Je pense que Gato pourrait être le système d'IA multimodal le plus avancé au monde. Mais je pense aussi que DeepMind a pris le même concept sans issue pour l'IAG qu'OpenAI et l'a simplement rendu plus commercialisable ».

Le directeur de recherche de DeepMind n'est pas d'accord avec l'opinion de Greene

Répondant à l'article d'opinion écrit par Greene, le directeur de recherche de DeepMind a écrit qu'il était d'avis qu'un tel résultat était inévitable : « Tout est question d'échelle maintenant ! La partie est terminée ! » il a écrit sur Twitter.


« Il s'agit de rendre ces modèles plus grands, plus sûrs, plus efficaces en matière de calcul, plus rapides à l'échantillonnage, une mémoire plus intelligente, plus de modalités, des données innovantes, en ligne/hors ligne... Résoudre ces défis est ce qui apportera l'IAG ».

Lorsque le chercheur en apprentissage automatique Alex Dimikas lui a demandé dans quelle mesure il croyait que l'IA Gato était proche de réussir un véritable test de Turing - une mesure de l'intelligence informatique qui nécessite qu'un humain soit incapable de distinguer une machine d'un autre humain - le Dr de Freitas a répondu que Gato est toujours loin de le faire.

Plusieurs chercheurs en IA ont averti que l'avènement de l'IAG pourrait entraîner une catastrophe existentielle pour l'humanité, le professeur de l'Université d'Oxford Nick Bostrom spéculant qu'un système « superintelligent » qui surpasse l'intelligence biologique pourrait voir les humains remplacés comme la forme de vie dominante sur Terre.

L'une des principales préoccupations avec l'arrivée d'un système AIG, capable d'apprendre de lui-même et de devenir exponentiellement plus intelligent que les humains, est qu'il serait impossible de s'éteindre.

Répondant à d'autres questions des chercheurs en IA sur Twitter, le Dr de Freitas a déclaré que « la sécurité est d'une importance primordiale » lors du développement de l'IAG. « C'est probablement le plus grand défi auquel nous sommes confrontés », a-t-il écrit. « Tout le monde devrait y penser. Le manque de diversité m'inquiète aussi beaucoup ».

Google, qui a fait l'acquisition la société DeepMind basée à Londres en 2014, travaille déjà sur un « gros bouton rouge » pour atténuer les risques associés à une explosion du renseignement. Dans un article de 2016 intitulé Safely Interruptible Agents, les chercheurs de DeepMind ont décrit un cadre pour empêcher l'intelligence artificielle avancée d'ignorer les commandes d'arrêt.

Sources : Dr Nando de Freitas, The Next Web

Et vous ?

Partagez-vous l'avis de Tristan Greene qui a affiché son scepticisme de voir créer une intelligence artificielle générale de notre vivant ?
Que pensez-vous des propos du Dr Nando qui estime que, grâce à Gato, « la partie est terminée » et que l'intelligence artificielle au niveau humain est sur le point d'être enfin atteinte ?
Que pensez-vous des mises en garde des chercheurs sur les dangers posés par une éventuelle IAG ?

Voir aussi :

DeepMind a entraîné une intelligence artificielle à contrôler la fusion nucléaire, en utilisant l'apprentissage par renforcement
DeepMind déclare que son intelligence artificielle dénommée AlphaCode est aussi bonne qu'un « programmeur humain moyen » : les travailleurs de la filière ont-ils du souci à se faire ?
DeepMind, le laboratoire d'IA d'Alphabet, teste les limites des grands systèmes linguistiques de l'IA, avec un modèle à 280 milliards de paramètres

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de calvaire
Expert éminent https://www.developpez.com
Le 18/05/2022 à 14:04
oui donc en gros c'est juste un gros coup de com, rien d'innovant sous le soleil.

cette partie m'a bien faire rire:
Lorsque le chercheur en apprentissage automatique Alex Dimikas lui a demandé dans quelle mesure il croyait que l'IA Gato était proche de réussir un véritable test de Turing - une mesure de l'intelligence informatique qui nécessite qu'un humain soit incapable de distinguer une machine d'un autre humain - le Dr de Freitas a répondu que Gato est toujours loin de le faire.
Mais oui "La partie et terminée"

Il s'agit de rendre ces modèles plus grands, plus sûrs, plus efficaces en termes de calcul, plus rapides à l'échantillonnage, une mémoire plus intelligente, plus de modalités, des données innovantes, en ligne/hors ligne... Résoudre ces défis est ce qui apportera l'IAG
Comment peut il affirmer que son modele fonctionnera a une échelle plus grande ? qu'es ce qui prouve qu'il va pas faire de l'overfitting par exemple ? avant d'annoncer que "La partie et terminée", il faut pouvoir le démontrer... pour l'insant ca semble juste etre un coup de com pour faire monter les actions par des investisseurs qui n'y connaissent rien.
7  0 
Avatar de SimonKenoby
Membre confirmé https://www.developpez.com
Le 19/05/2022 à 8:45
C'est marrant, je lisais justement hier un post de Yan LeCun sur LinkedIn, ou il expliquait que d'après lui on est encore loin d'avoir une intelligence artificielle du nouveau d'un humain. Et encore plus pour avoir une IAG.
3  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 25/07/2024 à 15:10
De tout les délires de la Sillicon Valley celui induit par les LLM est vraiment le plus délirant.

Une fois que l'IA aura réussi et sera capable de faire toutes les choses que le cerveau humain peut faire ; cela inclura comme un cas spécial : le processus d'inventer des choses
Ca sonne un peu comme un aveu L'IA n'invente rien. Elle peut voir les choses sous un angle différent car elle peut absorber plus de données mais c'est tout.
2  0 
Avatar de palnap
Membre averti https://www.developpez.com
Le 25/07/2024 à 20:08
On rigolera bien quand les contenus générés par IA seront tellement nombreux sur les internets qu'ils serviront à entraîner les IA 🤣

Quand la bulle explosera ça va faire bizarre à certains mais ce qui est sur c'est que ça arrivera et probablement plus tôt qu'on le croit
2  0 
Avatar de selmanjo
Membre régulier https://www.developpez.com
Le 21/05/2022 à 14:19
Ils ont bien intérêt à mettre un bouton off dans leur bidule. Il est inutile de développer un machin dont nous n'auront pas besoin.

Pour l'exploration spatiale, cela peut être un avantage. Mais je n'ai pas envie de voir une machine pleurnicharde.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 21/05/2022 à 19:20
Je suis entièrement d'accord avec le journaliste. Et qu'on lui réponde qu'atteindre l'IAG se résume à une mise à l'échelle, c'est faire un amalgame énorme entre l'IAG et l'IA non générale qui concerne la quasi totalité des travaux aujourd'hui dans le domaine. Mais ça ne m'étonne pas car c'est un amalgame qui est là depuis des décennies, et les habitudes culturelles de ce type sont difficiles à changer (quand tu bosses dans un environnement où tout le monde pense comme ça et agit en fonction, difficile de ne pas prendre le pli).
1  0 
Avatar de Forge
Membre régulier https://www.developpez.com
Le 26/05/2022 à 19:47
L'IA généraliste est le Graal des dev, mais elle sera réellement généraliste quand elle sera capable de poser ses propres questions, remplir sa base de données avec les infos qu'elle aura choisi, et les réutiliser de façon pertinente, même si le sujet abordé n'est pas en rapport direct.

J'ai écrit un le roman "Nouvelle Conscience" sous le pseudo de Robert G. Forge sur ce thème.
C'était avant tout pour faire comprendre qu'une IA ne vit pas seul mais qu'elle est programmée par des humains, avec leurs forces et leurs faiblesses.
Ce n'est pas un livre spécialisé mais un roman policier qui explique le développement d'une IA par 3 développeurs.
Parce qu'en gros une IA, c'est avant tout une équipe.
http://www.robertforge.fr/
0  0