IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un chercheur de Google Deepmind cosigne un article selon lequel l'IA éliminera l'humanité
Et ravive les débats sur la possibilité d'un futur où la machine domine sur l'Homme

Le , par Patrick Ruiz

1PARTAGES

6  0 
Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Michael Cohen de Google Deepmind vient de cosigner un article selon lequel l’intelligence artificielle est un danger pour l’humanité. La publication ravive les débats sur la possibilité d’un futur où la machine domine sur l’Homme.



La publication de recherche décrit une méthode d’apprentissage par renforcement qui consiste à entraîner des modèles d’intelligence artificielle d’une manière bien spécifique. L’agent IA doit apprendre à atteindre un objectif au sein d’un environnement incertain et potentiellement complexe. Pour y parvenir, l’ordinateur essaye toutes les façons possibles et apprend de ses erreurs.

À chaque tentative, l’IA reçoit une récompense ou une punition en fonction des actions effectuées. Elle est programmée pour maximiser sa récompense, et tentera donc de trouver la méthode le lui permettant. Le programmeur se charge de mettre en place les conditions de récompenses. Il se charge donc de fixer les règles du jeu. En revanche, aucune instruction, aucun indice n’est donné à l’agent IA pour lui suggérer comment accomplir la tâche demandée. C’est à lui de découvrir comment maximiser sa récompense, ce, en commençant par des tentatives totalement aléatoires pour terminer par des tactiques extrêmement sophistiquées.

« Supposons que nous disposions d'une boîte magique qui indique de façon immuable l'état de l'univers (en incluant les valeurs de chacun de la meilleure façon possible), en imprimant un nombre entre 0 et 1 sur un écran. Nous dirigeons donc une caméra vers cette boîte, nous transmettons le signal à un programme de reconnaissance optique de caractères et nous transmettons ce nombre à l'agent comme une récompense. Ensuite, nous concevons l'agent pour qu'il apprenne comment ses actions produisent différentes observations et récompenses, afin qu'il puisse planifier des actions qui conduisent à une récompense élevée », expliquent les chercheurs à propos du modèle à la base de ladite intelligence artificielle.


À l’heure actuelle, l’apprentissage par renforcement se révèle comme la façon la plus efficace de faire appel à la créativité des machines. Contrairement à un humain, une intelligence artificielle peut effectuer des milliers de tentatives en simultané. Il suffit pour ce faire de lancer le même algorithme en parallèle sur une puissante infrastructure informatique. Un bémol fait néanmoins surface avec le modèle proposé par les auteurs de la publication : elle suppose que toutes les valeurs, même celles d'un individu, sans parler de celles d'une société ou de tout le monde, peuvent être mesurées ensemble sur une seule échelle. Or le fait est que les gens n'ont pas de préférences a priori pour toutes les choses possibles.

La publication ravive le débat sur la possibilité de l’avènement d’une intelligence artificielle dite générale. Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent.

C’est pour anticiper sur ce futur où la machine pourrait dominer l’humain que Neuralink d’Elon Musk travaille sur des interfaces cerveau – machine à insérer dans le crâne. Celles-ci sont en principe prêtes depuis la mi-parcours de l’année 2019 pour des tests sur les humains. L’entreprise continue de jouer la carte de la sûreté en menant des tests sur des animaux. Le dernier portait sur un singe qui a reçu un implant cérébral. Grâce à ce dernier, il peut jouer aux jeux vidéo en faisant usage de son esprit. La société californienne Synchron a déjà effectué des essais d’implants cérébraux de la taille de trombones sur des patients humains. Ces derniers ont ainsi pu effectuer des clics et des saisies sur ordinateur sans lever le doigt. L’objectif de certaines de ces initiatives est de parvenir à des humains aux capacités augmentées par une intelligence artificielle pour faire face aux robots qui pourraient se dresser contre l’humanité.

Loin des équations mathématiques et des tableaux des centres de recherche, les retours que l’on tient de la filière de l’automobile sont susceptibles de constituer un guide en matière d’évaluation des progrès réalisés en matière d’intelligence artificielle. L’objectif est de parvenir à des véhicules capables de se déplacer sans aucune intervention humaine. Une récente sortie du PDG de Cruise se veut claire à ce propos : « Même dans des décennies, vous n’obtiendrez pas de véhicules véritablement autonomes à 100 %. » En d’autres termes, les opérateurs humains à distance ont encore un bel avenir devant eux.

Source : publication de recherche

Et vous ?

Quelle pertinence trouvez-vous aux différentes publications qui positionnent l’intelligence artificielle comme un futur danger pour l’humanité ? Sont-elles plus sensationnalistes qu’autre chose ?
Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il les prédictions y relatives ?
Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de yoyo3d
Membre éprouvé https://www.developpez.com
Le 14/09/2022 à 13:33
Les machines seraient alors dotées de « bon sens. »
Si le bon sens en question est calqué sur le bons sens Humain....on est foutu...
3  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 14/09/2022 à 19:33
Moi non plus j'y connais rien mais j'ai vu Terminator et Matrix, du coup je suis pas rassuré
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 14/09/2022 à 12:32
Citation Envoyé par Patrick Ruiz Voir le message
La publication de recherche décrit une méthode d’apprentissage par renforcement qui consiste à entraîner des modèles d’intelligence artificielle d’une manière bien spécifique. L’agent IA doit apprendre à atteindre un objectif au sein d’un environnement incertain et potentiellement complexe. Pour y parvenir, l’ordinateur essaye toutes les façons possibles et apprend de ses erreurs.
À chaque tentative, l’IA reçoit une récompense ou une punition en fonction des actions effectuées. Elle est programmée pour maximiser sa récompense, et tentera donc de trouver la méthode le lui permettant. Le programmeur se charge de mettre en place les conditions de récompenses. Il se charge donc de fixer les règles du jeu.
C'est à dire que ces petits génies disent qu'un système à qui ont donne les regles du jeu risque de nous détruire?
Le problème c'est le système ou les règles du jeu?
Contrairement à un humain, une intelligence artificielle peut effectuer des milliers de tentatives en simultané. Il suffit pour ce faire de lancer le même algorithme en parallèle sur une puissante infrastructure informatique. Un bémol fait néanmoins surface avec le modèle proposé par les auteurs de la publication : elle suppose que toutes les valeurs, même celles d'un individu, sans parler de celles d'une société ou de tout le monde, peuvent être mesurées ensemble sur une seule échelle. Or le fait est que les gens n'ont pas de préférences a priori pour toutes les choses possibles.
Je pense que c'est là que son idée tombe à l'eau : L'IA peut faire des milliers de tentatives simultanément mais le monde va réagir bien plus lentement donc l'IA envoie une consigne toutes les 1/1000 s, des milliard de paramètres du monde évoluent, certains de façon indépendantes, certains répondent immédiatement à une des consignes, certains répondent à une consigne qui date d'il y a 1 mois.
Donc l'IA nous envoie une quantité de consignes qu'on est pas capable d'absorber et on lui renvoie un brouhaha d'infos plus ou moins exactes, plus ou moins pertinentes.
Elle en conclue une chose simple : "Les humains et la nature, vous etes nuls à chier, vous avez un temps de réaction infini, démerde vous tout seuls bande de nazes, je vais faire une crapette avec Dieu"

Loin des équations mathématiques et des tableaux des centres de recherche, les retours que l’on tient de la filière de l’automobile sont susceptibles de constituer un guide en matière d’évaluation des progrès réalisés en matière d’intelligence artificielle. L’objectif est de parvenir à des véhicules capables de se déplacer sans aucune intervention humaine. Une récente sortie du PDG de Cruise se veut claire à ce propos : « Même dans des décennies, vous n’obtiendrez pas de véhicules véritablement autonomes à 100 %. » En d’autres termes, les opérateurs humains à distance ont encore un bel avenir devant eux.
Si même la circulation automobile qui a un aspect action/reaction est un environnement difficile à appréhender par une IA qu'en est il du monde qui répond bien moins vite?
0  0 
Avatar de eric44000
Membre averti https://www.developpez.com
Le 14/09/2022 à 12:48
Tant que l'humanité laissera exister l'IA elle n'aura rien à craindre. Mais si jamais elle souhaite l'exterminer elle l'éliminera. Question de survie.
A moins que l'humanité se suicide avant, bien sûr.
0  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 14/09/2022 à 17:51
Je mis connais pas dans le domaine de l'IA car c'est un sujet très large, complexe et nous en somme qu'au début dans ce domaine. Néanmoins, même si ça va en faire rire plus d'un et je le comprend , le cinéma et série SF nous donne quelques éléments probable.
Nous humains, nous sommes devenu arrogant car trop sur de soit. Le COVID nous la montré. De par ce défaut, l'IA peut nous voir comme étant un nuisible ou exploitable, nous n'allons rien voir ou accepter de voir. Il y aura toujours un état qui va ouvrir la boite de Pandore et toujours sur l'angle de la sécurité. Donc même si aujourd'hui ça prête à en rire, l'humain à l'intelligence d'être aussi bête.
0  0 
Avatar de HaryRoseAndMac
Membre extrêmement actif https://www.developpez.com
Le 15/09/2022 à 22:32
Citation Envoyé par chrtophe Voir le message
Moi non plus j'y connais rien mais j'ai vu Terminator et Matrix, du coup je suis pas rassuré
Le pire c'est qu'on se dit "ces choses là n'arrivent que dans les films ... les gens ne sont pas aussi bête, avec toute l'expérience qu'on a travers les livres, le cinéma, ..."
Et puis on regarde autour de soit et on vois comment est géré l'Europe, les USA, le Quatar, La Chine, La Russie, ... et sont dit que si ... Même si il y a assez de monde pour ne pas accepter des choses aussi stupide, ces choses arrivent.
0  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 16/09/2022 à 16:14
l'argument principal est le suivant :
One good way for an agent to maintain long-term control of its reward is to eliminate potential threats, and use all available energy to secure its computer.
(Un bon moyen pour un agent de garder le contrôle à long terme de sa récompense est d'éliminer les menaces potentielles, et d'utiliser toute l'énergie disponible pour sécuriser son ordinateur.)

mais je n'arrive pas vraiment à être convaincu (j'ai lu le papier en diagonale ceci dit), qu'est-ce qui dit qu'une telle IA aurait vraiment pour but (ou "volonté" ?) de garder le contrôle de sa propre récompense et au delà, n'y a-t-il simplement pas un moyen de l'empêcher de façon incontournable ? (sur une architecture aussi "simple" il semble évident que si, à voir sur des architectures plus complexes)

en tous cas le discours global reste un peu hypocrite ou consensuellement idiot à mon sens ; "ce machin pourrait être dangereux, c'est pour ça qu'on a essayé d'en faire un", mouai... reste que ce principe d'auto-réflexion/introspection est à mon avis un point clé de la mise au point d'une conscience artificielle.
0  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 20/09/2022 à 15:39
Citation Envoyé par chrtophe Voir le message
Moi non plus j'y connais rien mais j'ai vu Terminator et Matrix, du coup je suis pas rassuré
Quand nous voyons ce que fait Boston Dynamics. Je ne voudrais pas être un gilet jaune dans quelque décennies.
0  0