IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs du MIT viennent de découvrir une IA qui imite le cerveau par elle-même,
L'apprentissage automatique commence à ressembler beaucoup à la cognition humaine

Le , par Bruno

274PARTAGES

10  0 
Au cours des dernières années, les modèles d'intelligence artificielle du langage sont devenus très performants dans certaines tâches. Cependant, Interrogé sur l'apprentissage automatique et ses contributions aux sciences cognitives par le Massachusetts Institute of Technology (MIT), Noam Chomsky et Steven Pinker, deux des plus grands spécialistes mondiaux des sciences linguistiques et cognitives ont exprimé beaucoup de scepticisme et une certaine déception.

« Dans presque tous les domaines pertinents, il est difficile de voir comment l'apprentissage automatique peut apporter une quelconque contribution à la science, déplore Chomsky, en particulier à la science cognitive, quelle que soit la valeur qu'il puisse avoir dans la construction des dispositifs utiles ou pour explorer les propriétés des processus informatiques employés. »


Bien que Pinker adopte un ton légèrement plus doux, il se fait l'écho du manque d'enthousiasme de Chomsky quant à la façon dont l'IA a fait progresser notre compréhension du cerveau : « La science cognitive elle-même a été éclipsée par les neurosciences dans les années 1990 et par l'intelligence artificielle au cours de cette décennie, mais je pense que ces domaines devront surmonter leur stérilité théorique et être réintégrés à l'étude de la cognition, la neurophysiologie et l'apprentissage automatique se sont chacun heurtés à des murs lorsqu'il s'agit d'éclairer l'intelligence. »

Mais à mesure que notre compréhension de l'intelligence humaine et artificielle progresse, des positions comme celles-ci pourraient bientôt se retrouver sur un terrain instable. Alors que l'IA n'a pas encore atteint une cognition semblable à celle de l'homme, les réseaux neuronaux artificiels qui reproduisent le traitement du langage (un système considéré comme un élément essentiel de la cognition supérieure) commencent à ressembler étonnamment à ce que nous voyons se produire dans le cerveau.

Au cours des dernières années, les modèles d'intelligence artificielle du langage sont devenus très performants dans certaines tâches. Ils excellent notamment à prédire le prochain mot d'une chaîne de texte ; cette technologie aide les moteurs de recherche et les applications de messagerie à prédire le prochain mot que vous allez taper. Ces modèles ont été conçus pour optimiser les performances de la fonction spécifique de prédiction du texte, sans tenter d'imiter quoi que ce soit sur la façon dont le cerveau humain effectue cette tâche ou comprend le langage.

En début de cette année, Microsoft a par exemple annoncé qu’elle prévoyait d’utiliser l'apprentissage automatique pour ajouter la fonction de prédictions de texte à Word. L'année dernière, Kimberley de l'équipe Word et Thomas de l'équipe Outlook ont présenté la nouvelle fonctionnalité pour Word et Outlook. Selon ces derniers, il suffit de commencer à taper un document dans Word ou dans un Mail via Outlook, et les prédictions commenceront à apparaître.

Mais une nouvelle étude menée par des neuroscientifiques du MIT suggère que la fonction sous-jacente de ces modèles ressemble à la fonction des centres de traitement du langage dans le cerveau humain. Les modèles informatiques qui obtiennent de bons résultats dans d'autres types de tâches linguistiques ne présentent pas cette similitude avec le cerveau humain, ce qui prouve que le cerveau humain pourrait utiliser la prédiction du mot suivant pour gérer le traitement du langage.

« Plus le modèle est performant dans la prédiction du mot suivant, plus il se rapproche du cerveau humain, explique Nancy Kanwisher, professeure au département des sciences du cerveau et des sciences cognitives du MIT et chercheuse au McGovern Institute for Brain Research et du Center for Brains et auteur de la nouvelle étude. Il est étonnant que les modèles s'ajustent si bien, et cela suggère très indirectement que ce que fait le système de langage humain est peut-être de prédire ce qui va se passer ensuite. »

En novembre, un groupe de chercheurs du MIT a publié une étude démontrant que l'analyse des tendances de l'apprentissage automatique peut ouvrir une fenêtre sur ces mécanismes de la fonction cognitive supérieure du cerveau. Ce qui est peut-être encore plus étonnant, c'est que l'étude implique que l'IA évolue de manière convergente avec la nature, sans que personne ne la programme pour cela.

Réseaux neuronaux et prédiction du mot suivant

Les nouveaux modèles de prédiction du mot suivant, très performants, appartiennent à une catégorie de modèles appelés réseaux neuronaux profonds. Ces réseaux contiennent des « nœuds » informatiques qui forment des connexions de force variable, et des couches qui transmettent les informations entre elles de manière prescrite.

Au cours de la dernière décennie, les scientifiques ont utilisé des réseaux neuronaux profonds pour créer des modèles de vision capables de reconnaître des objets aussi bien que le cerveau des primates. Des recherches menées au MIT ont également montré que la fonction sous-jacente des modèles de reconnaissance visuelle des objets correspond à l'organisation du cortex visuel des primates, même si ces modèles informatiques n'ont pas été spécifiquement conçus pour imiter le cerveau.

Dans la nouvelle étude, l'équipe du MIT a utilisé une approche similaire pour comparer les centres de traitement du langage dans le cerveau humain avec les modèles de traitement du langage. Les chercheurs ont analysé 43 modèles de langage différents, dont plusieurs sont optimisés pour la prédiction du mot suivant. Il s'agit notamment d'un modèle appelé GPT-3 (Generative Pre-trained Transformer 3), qui, à partir d'une invite, peut générer un texte similaire à celui que produirait un humain.

OpenAI, qui a mis au point l’intelligence artificielle nommée GPT-3, a récemment annoncé qu'il est...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 23/12/2021 à 10:35
Bonjour,

Citation Envoyé par Jules34 Voir le message
[...] Surtout pour compléter des recherches google du type "boulangerie à... PROXIMITÉ"
Les gens qui bossent dans ce domaine me donnent l'impression de se bercer d'illusions, exemple ce matin avec une recherche ggl sur typographie palavas et la première page qui remonte ne concerne que des articles sur la police municipale de la ville, celle qui fait régner l'ordre.
J'ai essayé de comprendre et la lumière a jailli : typographie donc écriture donc police de caractères. Quel rapport avec la police municipale de Palavas ? Aucun, à part le mot police.
Autre recherche avec typographique marseille et là, ce ne sont que des résultat concernant la typographie. Alors ? Deux poids deux mesures ? Mais là c'est le même poids, donc un poids mais deux mesures quand même ?

Y a vraiment encore beaucoup de boulot sur ces histoires d'IA avant que ça ne soit opérationnel, si ça l'est un jour.

Et on s'étonne que des logiciels de ce genre contrôlant des bagnoles dites autonomes provoquent des accidents ? Rien ne m'étonne plus.



5  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 22/12/2021 à 16:25
Citation Envoyé par Bruno Voir le message
Des chercheurs du MIT viennent de découvrir une IA qui imite le cerveau par elle-même,
l'apprentissage automatique commence à ressembler beaucoup à la cognition humaine
Je me demande dans quelle mesure on peut "découvrir" une IA dans le sens ou c'est une création de l'esprit, du code... Le reste de l'article est nébuleux : on à "découvert" ce code (en soulevant un cailloux dans la jungle sauvage de GitHub ?) et il se comporterait "comme" le cerveau, ce qui bien sûr est "révolutionnaire"

Donc : de leurs propres aveux le cerveau humain est trop compliqué à comprendre mais cette IA découverte se comporterait comme le cerveau humain qu'il ne comprenne pas pour pouvoir auto complété les recherches des gens ? Je ne vois rien de révolutionnaire la dedans. Faire correspondre l'encéphalogramme ou je ne sais quoi d'un mec qui lit et celui d'une IA semble être un progrès mais je ne vois pas à quoi ça avance exactement car du code statique ne s'adaptera jamais comme le cerveau le fait. Cette volonté de faire ressembler l'inerte au vivant est presque même un peu dérangeante dans le fond non ? Surtout pour compléter des recherches google du type "boulangerie a... PROXIMITE"

J'abuse, en plus de toute façon j'y comprend rien
2  0 
Avatar de KEKE93
Membre éclairé https://www.developpez.com
Le 22/12/2021 à 17:04
C'est marrant...J'avais entendu parler de Noam Chomsky lorsque je débutais mes études il y a plus de trente ans.
J'ai regardé sur Internet; le gars a 93 ans...Ca conserve de travailler au MIT

https://fr.wikipedia.org/wiki/Noam_Chomsky
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 25/01/2022 à 14:03
On s'inspire du cerveau humain pour définir des neurones artificiels, on les utilise pour reproduire des actions humaines... et on s'étonne qu'elles s'organisent/reproduisent des fonctions comme un cerveau humain ? Va falloir qu'on m'explique où est la surprise.
0  0