IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le cofondateur d'OpenAI devient cible de moquerie après son tweet selon lequel les grands réseaux de neurones pourraient être légèrement conscients :
La mise au point d'un pionnier de l'IA

Le , par Patrick Ruiz

68PARTAGES

5  0 
« Il se peut que les réseaux de neurones d’aujourd’hui soient légèrement conscients », déclare le cofondateur (avec Elon Musk) d’OpenAI. Sa dernière sortie lorsqu’elle n’est pas la cible de moqueries suscite de la controverse sur la définition de termes comme "intelligence" et "conscience". Un pionnier de l’intelligence artificielle fait une mise au point pour expliquer pourquoi les systèmes d’intelligence artificielle ne sont pas réellement intelligents.

Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, rien de plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Le cofondateur d’OpenAI en fait partie.

Les développements au sein d’OpenAI sont d’ailleurs une source d’inspiration du point de vue idéologique pour Neuralink d’Elon Musk qui travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. Celles-ci sont en principe prêtes depuis la mi-parcours de l’année 2019 pour des tests sur les humains. L’entreprise continue de jouer la carte de la sûreté en menant des tests sur des animaux. Le dernier portait sur un singe qui a reçu un implant cérébral. Grâce à ce dernier, il peut jouer aux jeux vidéo en faisant usage de son esprit. La société californienne Synchron a déjà effectué des essais d’implants cérébraux de la taille de trombones sur des patients humains. Ces derniers ont ainsi pu effectuer des clics et des saisies sur ordinateur sans lever le doigt.

Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent.


La mise au point de Michael I. Jordan – pionnier de l’apprentissage automatique

« Les gens s'embrouillent sur la signification de l'IA dans les discussions sur les tendances technologiques, à savoir qu'il y a une sorte de pensée intelligente dans les ordinateurs qui est responsable du progrès et qui est en concurrence avec les humains. Nous n'en sommes pas à ce niveau, mais les gens parlent comme si c'était le cas », dit Michael I. Jordan, un chercheur de premier plan dans le domaine de l'IA et de l'apprentissage automatique. Il note que l'imitation de la pensée humaine n'est pas le seul objectif de l'apprentissage automatique ni même le meilleur objectif. Au contraire, l'apprentissage automatique peut servir à accroître l'intelligence humaine, par l'analyse minutieuse de grands ensembles de données, de la même manière qu'un moteur de recherche accroît les connaissances humaines en organisant le Web. Les systèmes d'intelligence artificielle sont loin d'être assez avancés pour remplacer les humains dans de nombreuses tâches impliquant le raisonnement, la connaissance du monde réel et l'interaction sociale. Ils font preuve d'une compétence de niveau humain en matière de reconnaissance des formes de bas niveau, mais du point de vue cognitif, ils se contentent d'imiter l'intelligence humaine, sans s'engager de manière profonde et créative, explique l'expert.

En 2019, Jordan a écrit "Artificial Intelligence-The Revolution Hasn't Happened Yet", publié dans la Harvard Data Science Review. Il y explique que le terme IA est mal compris non seulement par le public, mais aussi par les spécialistes des technologies. Dans les années 1950, lorsque le terme a été inventé, écrit-il, les gens aspiraient à construire des machines informatiques dotées d'une intelligence de niveau humain. Cette aspiration existe toujours, dit-il, mais ce qui s'est passé au cours des décennies écoulées est différent. Les ordinateurs ne sont pas devenus intelligents en soi, mais ils ont fourni des capacités qui augmentent l'intelligence humaine, écrit-il. De plus, ils ont excellé dans les capacités de reconnaissance des formes de bas niveau qui pourraient être réalisées en principe par des humains, mais à un coût élevé. Les systèmes basés sur l'apprentissage automatique sont capables de détecter la fraude dans les transactions financières à grande échelle, par exemple, catalysant ainsi le commerce électronique. Ils sont essentiels pour la modélisation et le contrôle des chaînes d'approvisionnement dans les secteurs de la fabrication et des soins de santé. Ils aident également les agents d'assurance, les médecins, les éducateurs et les cinéastes.

L'apprentissage automatique permet en effet d'agréger des informations provenant de plusieurs ensembles de données, d'explorer des modèles et de trouver de nouvelles solutions à des problèmes susceptibles de fournir des services inédits aux humains dans divers domaines.

Bien que ces développements soient qualifiés de « technologie de l'IA », écrit-il, les systèmes qui les composent n'impliquent pas de raisonnement ou de pensée de haut niveau. Les systèmes ne forment pas les types de représentations sémantiques et de déductions dont les humains sont capables. Ils ne formulent pas et ne poursuivent pas d'objectifs à long terme. « Dans un avenir prévisible, les ordinateurs ne seront pas en mesure d'égaler les humains dans leur capacité à raisonner de manière abstraite sur des situations du monde réel. Nous aurons besoin d'interactions bien pensées entre les humains et les ordinateurs pour résoudre nos problèmes les plus urgents. Nous devons comprendre que le comportement intelligent des systèmes à grande échelle découle autant des interactions entre les agents que de l'intelligence des agents individuels », écrit-il.

En outre, souligne-t-il, le bonheur de l'homme ne devrait pas être une réflexion après coup lors du développement de la technologie. « Nous avons une réelle opportunité de concevoir quelque chose d'historiquement nouveau : une discipline d'ingénierie centrée sur l'humain », écrit-il. Le point de vue de Jordan comprend une discussion revitalisée sur le rôle de l'ingénierie dans la politique publique et la recherche universitaire. Il fait remarquer que lorsque les gens parlent de sciences sociales, cela semble attrayant, mais que le terme d'ingénierie sociale ne l'est pas.
Je pense que nous avons laissé le terme « ingénierie se déprécier dans la sphère intellectuelle », déclare-t-il. Le terme « science » est utilisé à la place du terme « ingénierie » lorsque les gens souhaitent faire référence à une recherche visionnaire. « Je pense qu'il est important de rappeler que, malgré toutes les choses merveilleuses que la science a faites pour l'espèce humaine, c'est vraiment l'ingénierie (civile, électrique, chimique et autres domaines de l'ingénierie) qui a le plus directement et le plus profondément amélioré le bonheur humain », précise-t-il.

Enfin, Jordan a également parlé de son point de vue sur l'édition ouverte. Il estime que le modèle d'édition établi par les sociétés d'édition commerciales a échoué et qu'il entrave également la circulation de l'information. L'édition ouverte, quant à elle, favorise la circulation de l'information et accélère la diffusion et l'échange de connaissances.

Source : HDSR

Et vous ?

Que pensez-vous des propos du professeur Michael Jordan ? Êtes-vous en accord avec ses différentes explications ?
Le cofondateur d’OpenAI pourrait-il avoir raison si être au fait de sa propre existence ?

Voir aussi :

Une agence de presse chinoise a dévoilé sa première présentatrice TV virtuelle animée par l'IA, mais est-ce vraiment de l'IA ?

Un nouveau robot à hamburger amélioré grâce à un logiciel d'apprentissage automatique débarque sur le marché. ROAR peut cuire 19 aliments différents et ses ventes explosent suite au COVID-19

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert éminent https://www.developpez.com
Le 14/02/2022 à 11:11
Certains sont prêts à tout pour faire le buzz !
0  0 
Avatar de jimmitry
Membre régulier https://www.developpez.com
Le 18/02/2022 à 5:23
10 ans de R&D sur la conscience artificielle... https://www.mentdb.org
0  0 
Avatar de LeDruide87
Membre habitué https://www.developpez.com
Le 18/02/2022 à 10:49
Enfin un chercheur qui voit clair !
Pour qui pratique l'IA (c'est mon cas), il est évident que les "neurones" en question ne sont appelés ainsi que par métaphore, et n'ont rien à voir, par même la connectivité, avec le peu que nous savons du fonctionnement des véritables neurones. Quant à parler d'intelligence... il faudrait d'abord en disposer d'une définition scientifique. Si l'on s'en tient au seul QI, l'on n'obtient qu'une série de performances à des questions biaisées, et cela ne définit en rien l'intelligence qui pourrait bien concerner non seulement le logos, mais aussi l'[I]ars fabricandi[I] (la technique), le nomos (la capacité à faire de la société) et la dikê (régulation éthique). Or ces domaines, sauf le premier, et encore... n'ont fait l'objet que de spéculation philosophiques et échappent largement à la science.
Il n'y a pas de "conscience" (ou "cognition") dans une machine, si sophistiquée soit-elle. L'intelligence que 'on croit y trouver est en fait celle du concepteur, du fabricant,de l'utilisateur... et du descripteur. Et le descripteur, naïf (c'est très humain !) est facile à tromper.
Un robot, quel qu'il soit, n'est jamais "autonome", il ne fait pas sa propre loi, il n'agit qu'en fonction d'un programme. L'humain est toujours embusqué derrière lui, et parfois se sert de l'illusion pour échapper à la responsabilité et à la faute morale lorsque sa machine provoque ce que l'on appelle hypocritement "dégâts collatéraux".
0  0