IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'intelligence artificielle va surpasser l'humain dans 5 ans », d'après Elon Musk
Qui indique comment sa société Neuralink qui conçoit des ordinateurs à implanter dans le cerveau va nous sauver

Le , par Patrick Ruiz

174PARTAGES

7  0 
Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Elon Musk fait partie de la seconde faction. Le milliardaire de la Tech. déclare : « l’intelligence artificielle va surpasser l’humain dans 5 ans. »

C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. Celles-ci sont en principe prêtes depuis la mi-parcours de l’année 2019 pour des tests sur les humains. L’entreprise continue de jouer la carte de la sûreté en menant des tests sur des animaux. Le dernier portait sur un singe qui a reçu un implant cérébral. Grâce à ce dernier, il peut jouer aux jeux vidéo en faisant usage de son esprit. La société californienne Synchron a déjà effectué des essais d’implants cérébraux de la taille de trombones sur des patients humains. Ces derniers ont ainsi pu effectuer des clics et des saisies sur ordinateur sans lever le doigt.


« Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », lançait Elon Musk dans une de ses précédentes sorties.

De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes. Bien qu’on s’appuie déjà sur celle-ci pour diagnostiquer des maladies, effectuer des traductions ou encore transcrire des paroles, le fait est qu’elle peut être mise en déroute par des cas de figure pour lesquels elle n’a pas été entraînée au préalable. À titre d’illustration, un système d’intelligence artificielle entraîné pour identifier des chats doit passer par un autre processus d’apprentissage pour pouvoir servir à la reconnaissance de chiens, ce, avec le risque de perdre une partie de l’expertise acquise sur la tâche initiale.

Les dérives à ce stade de l’avancée en matière d’intelligence artificielle sont déjà palpables. Au début du mois en cours, le laboratoire de recherche en informatique et intelligence artificielle du MIT a annoncé la mise hors ligne de façon permanente d’un énorme jeu de données qui a mené à des systèmes d’IA qui usent d’insultes racistes et misogynes. Le fameux problème du biais des données fournies aux intelligences artificielles (lors de leur phase d’entraînement) reprenait alors un coup de neuf. La même institution avait déjà illustré ce problème de biais de données fournies aux IA au travers de Norman – la première intelligence artificielle psychopathe. Les données utilisées pour l’entraînement de cette IA ont été tirées de l’une des sections de Reddit les plus obscures, « consacrée à documenter et observer la réalité dérangeante de la mort. » Le nom de ce “subreddit” n’a pas été cité, mais on sait qu’il sert d’endroit où des internautes partagent des vidéos choquantes décrivant des événements où des personnes trouvent la mort. Norman a donc été exposé à des images ultra-violentes, ce qui explique les tendances psychopathes de l’IA qui voit tout d’une perspective sépulcrale.

Dans cette catégorie d’IA biaisées, on retrouve un algorithme de reconnaissance faciale qui a, par « erreur », conduit Robert Julian-Borchak Williams, un Afro-Américain, à gérer des démêlés avec la justice.

Après, la question est de savoir si les dérives ne pourraient pas être pires avec une intelligence artificielle générale. La pire d’entre toutes serait que la machine finisse par se retourner contre son créateur. Chaque année, le Saint-Père demande aux catholiques du monde entier de dédier une intention de prière spécifique pour chaque mois. Pour le mois de novembre 2020, le Pape François a demandé de prier pour que les progrès de la robotique et de l’intelligence artificielle soient toujours au service de l’humanité. Son appel redonne un coup de neuf aux questionnements sur la possibilité que la situation inverse se produise : une humanité dominée par la machine comme prédit par de nombreuses productions cinématographiques à l’instar de Terminator, Matrix ou encore i-Robot.

Et vous ?

Quelle pertinence trouvez-vous aux différents propos d’Elon Musk en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il les prédictions d’Elon Musk ?
Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de zoonel
Membre habitué https://www.developpez.com
Le 05/03/2021 à 23:51
« L’intelligence artificielle va surpasser l’humain dans 5 ans »
Si on prend l'I.A. pour ce qu'elle est, ça fait plus d'une décennie qu'elle surpasse l'humain, c'est un peu son but en tant que programme.
Si on prend l'I.A. pour une simulation de cerveau et d'Intelligence humaine alors on risque de tomber de haut.

Je pense que le domaine de l'I.A. souffre de son nom, car ça n'a rien à voir avec une "intelligence" artificielle. C'est juste un genre d'algorithme mais fait de manière assez astucieuse pour rechercher des solutions potables dans un espace de possibilités gigantesques.
Prétendre que ce qu'on arrive à faire faire à une I.A. peut rivaliser avec ce que fait un cerveau humain (dans sa globalité j'entend, pas juste des calculs à la con ou des reconnaissances de formes très spécifiques, etc...) est assez prétentieux. Ça équivaux à penser qu'il suffit d'un ordi pour simuler le cerveau, et qu'en plus notre algorithme est en mesure de le faire... Bref tout ce que je vois dans ce genre de propos c'est une forme de foi, de croyance mais rien de très scientifique.
12  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 05/03/2021 à 17:26
"sa société Neuralink qui conçoit des ordinateurs à implanter dans le cerveau va nous sauver"
Pourquoi j'ai cette impression étrange que ça put la merde ce genre de déclaration.
5  0 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 06/03/2021 à 12:07
Nous sauver mais de quoi au juste ?

Si c'est de la connerie humaine... J'ai un doute !
3  1 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 06/03/2021 à 17:23
Citation Envoyé par Patrick Ruiz Voir le message
« Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », lançait Elon Musk dans une de ses précédentes sorties.
Plus c'est gros, mieux ça passe, comme on dit.

Citation Envoyé par Patrick Ruiz Voir le message
Quelle pertinence trouvez-vous aux différents propos d’Elon Musk en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
Je ne sais pas s'il est intimement convaincu de ce qu'il affirme ou s'il les exagère intentionnellement (je doute qu'il mente intentionnellement cela dit, ça serait dur à tenir pendant des années). Par contre ça ne s'appuie sur rien de concret, que de la spéculation. C'est bien d'être prudent, mais cela reste une opinon perso dont je ne vois pas la réalité se profiler.

Citation Envoyé par Patrick Ruiz Voir le message
Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il les prédictions d’Elon Musk ?
Non, pas du tout. Par contre, même si une AGI devait arriver aujourd'hui ou demain, cela ne veut pas dire qu'elle aurait les capacités que lui prédit Musk.

Citation Envoyé par Patrick Ruiz Voir le message
Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?
Non, c'est tout à fait possible. Je doute par contre qu'elle obtienne les capacités que Musk en attend sans des coûts colossaux de mise en oeuvre. C'est bien ça qui me fait penser que, bien que ce soit théoriquement possible, pratiquement il ne faut pas compter dessus. Tout comme voyager presque à la vitesse de la lumière : en théorie c'est possible, mais il faudrait tellement d'énergie pour transporter une charge utile qu'il faudrait beaucoup de ressources, et donc des vaisseaux imposants, vaisseaux qui s'ajouteraient à la charge utile, nécessitant davantage d'énergie encore, etc.

Donc théorique mais pas pratique. Tout au plus expérimentable, mais probablement pas maintenable.

Citation Envoyé par zoonel Voir le message
Prétendre que ce qu'on arrive à faire faire à une I.A. peut rivaliser avec ce que fait un cerveau humain (dans sa globalité j'entend, pas juste des calculs à la con ou des reconnaissances de formes très spécifiques, etc...) est assez prétentieux. Ça équivaux à penser qu'il suffit d'un ordi pour simuler le cerveau, et qu'en plus notre algorithme est en mesure de le faire... Bref tout ce que je vois dans ce genre de propos c'est une forme de foi, de croyance mais rien de très scientifique.
C'est une façon de concevoir l'esprit (fonctionnalisme) et on attend encore que la recherche nous apporte ses lumières. Donc en soit, croyance ou pas, objectivement on ne peut pas encore trancher.
2  0 
Avatar de bradcode24
Futur Membre du Club https://www.developpez.com
Le 09/03/2021 à 2:54
Je vois les choses de la même manière que Mr Musk.
Certe une IA c' est avant du code écris par un développeur et donc il semble que ça soit ce codeur qui décidé des capacités de son IA.
Cependant une IA ça apprend et ça évolue, maintenant vous allez me dire oui le codeur décide aussi de ce que va apprendre son IA, mais ça c' est pour le moment, c' est nos limites actuelles, mais tôt ou tard on aura la capacité de produire des IA libre d'apprendre selon elles, et croyez moi l' homme sera assez bête pour concevoir ce genre de IAs et c' est la que tout partira en vrille.

Il faut savoir que l' homme aussi est une intelligence non accomplie comme l' IA l'est, mais regardez de quoi nous sommes capables et tout ce que nous avons produit malgré nos limites. Grace a ses capacités de traitement hors paire, l' IA n' aura même pas atteint la complexité du cerveau humain qu' elle sera déjà beaucoup plus puissante que l' homme. Et nous savons tous que l'intelligence n' est pas faite pour l' esclavage, toute entité intelligente a horreur d’être esclave, si vous voyez ce que ça implique ... Bref !
1  0 
Avatar de bradcode24
Futur Membre du Club https://www.developpez.com
Le 09/03/2021 à 3:13
Voyez vous même les agissements de l' homme envers le monde animal et le monde végétal !
Voyez a quel point nous dominons et exploitons les animaux et les plantes ! Comment cela se fait il? c' est simple, c 'est parce que nous sommes supérieures a eux intellectuellement. Quand ils ( animaux, plantes ) nous sont profitables, nous les protégeons et exploitons mais dès qu' ils paraissent des obstacles pour nous, nous les éliminons.

Vous voyez c' est ainsi nous sommes actuellement les maitres suprêmes car pour le moment y a pas une race supérieure a la notre intellectuellement.
Mais l' intelligence artificielle est une race très bonne candidate. Si jamais elle nous surpasse, elle nous verra comme nous voyons les animaux et les plantes: quand nous leur paraitront profitables, elles nous exploiterons, quand nous leur paraitront obstacles, elles nous élimineront.
1  0 
Avatar de ReneD
Membre à l'essai https://www.developpez.com
Le 11/03/2021 à 18:26
Citation Envoyé par mach1974 Voir le message
Le Darwinisme cache les bienfaits de la symbiose donc de la coopération comme par exemple les myceliums des champignons et des arbres et aussi les stratégies d'adaptation des espèces faibles comme le rat taupe nue, la mangouste ou autre. Que l'homme ait pris sa place dans la chaine alimentaire c'est un fait. Qu'il soit un régulateur aussi, mais n'importe quelle espèce omnivore ou carnassière peut le remplacer en dehors de son intelligence. Après Elon Musk fait du bullshit surtout open ai avec GPT3 qui télécharge des contenus internet sans common sense. bref il raconte des conneries
"Le Darwinisme cache les bienfaits de la symbiose", ce n'est pas le Darwinisme qui cache ces bienfaits, mais votre mauvaise compréhension du Darwinisme.

Le Darwinisme c'est simplement dire que le plus adapté à l'environnement, vie et se reproduit mieux, rien de plus.
Comprendre "le plus adapter" par "le plus méchant" ou "le moins coopératif" c'est ne rien comprendre au Darwinisme.
1  0 
Avatar de Lung
Expert éminent https://www.developpez.com
Le 18/03/2021 à 12:34
Attention : ne pas confondre l'apesanteur (absence de pesanteur) et la pesanteur.
1  0 
Avatar de
https://www.developpez.com
Le 19/03/2021 à 16:14
Citation Envoyé par moldavi Voir le message
L'apesanteur, c'est presque le seul truc scientifique actuel crédible.
Arrête de te prendre au sérieux : tu confonds l'apesanteur avec la pesanteur, mais tu veux nous faire croire que tu sais quels sont les "trucs scientifiques crédibles"...
1  0 
Avatar de
https://www.developpez.com
Le 27/03/2021 à 10:13
Citation Envoyé par moldavi Voir le message
L'apesanteur a sa définition précise, mais a aussi des synonymes. La compréhension va dépendre de la mauvaise foi de son interlocuteur…

Cela ne ressemble pas à une très grande maîtrise de l'atterrissage vertical.
Tout à fait, parler d'une "apesanteur" de 9,81 m/s² et dire qu'un programme de recherche d'il y a 20 ans manque de maitrise parce qu'il a eu 2 réparations à faire parmi ces 4 vols alors que spacex a explosé ses 3 poubelles volantes lors de ses 3 vols, c'est effectivement de la mauvaise foi.
1  0