Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les personnes intelligentes qui pensent que l'IA ne pourrait pas l'être plus qu'elles sont « bien plus bêtes qu'elles ne le pensent »
D'après Elon Musk

Le , par Patrick Ruiz

517PARTAGES

17  0 
Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Elon Musk fait partie de la seconde faction. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. Le milliardaire de la Tech. tient à nouveau à prévenir : l’IA va surpasser les capacités cognitives de l’Homme.

« Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.



De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.


Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes. Bien qu’on s’appuie déjà sur celle-ci pour diagnostiquer des maladies, effectuer des traductions ou encore transcrire des paroles, le fait est qu’elle peut être mise en déroute par des cas de figure pour lesquels elle n’a pas été entraînée au préalable. À titre d’illustration, un système d’intelligence artificielle entraîné pour identifier des chats doit passer par un autre processus d’apprentissage pour pouvoir servir à la reconnaissance de chiens, ce, avec le risque de perdre une partie de l’expertise acquise sur la tâche initiale.

Les dérives à ce stade de l’avancée en matière d’intelligence artificielle sont déjà palpables. Au début du mois en cours, le laboratoire de recherche en informatique et intelligence artificielle du MIT a annoncé la mise hors ligne de façon permanente d’un énorme jeu de données qui a mené à des systèmes d’IA qui usent d’insultes racistes et misogynes. Le fameux problème du biais des données fournies aux intelligences artificielles (lors de leur phase d’entraînement) reprenait alors un coup de neuf. La même institution avait déjà illustré ce problème de biais de données fournies aux IA au travers de Norman – la première intelligence artificielle psychopathe. Les données utilisées pour l’entraînement de cette IA ont été tirées de l’une des sections de Reddit les plus obscures, « consacrée à documenter et observer la réalité dérangeante de la mort. » Le nom de ce “subreddit” n’a pas été cité, mais on sait qu’il sert d’endroit où des internautes partagent des vidéos choquantes décrivant des événements où des personnes trouvent la mort. Norman a donc été exposé à des images ultra-violentes, ce qui explique les tendances psychopathes de l’IA qui voit tout d’une perspective sépulcrale.

Dans cette catégorie d’IA biaisées, on retrouve un algorithme de reconnaissance faciale qui a, par « erreur », conduit Robert Julian-Borchak Williams, un Afro-Américain, à gérer des démêlés avec la justice. Après, la question est de savoir si les dérives ne pourraient pas être pires avec une intelligence artificielle générale.

Source : Twitter

Et vous ?

Quelle pertinence trouvez-vous aux différents propos d’Elon Musk en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il les prédictions d’Elon Musk ?
Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors*? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40*millions*$ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de yvslms
Membre confirmé https://www.developpez.com
Le 23/07/2020 à 9:29
Même si les performances et les résultats obtenus par l'IA sont véritablement impressionnants, il serait plus juste de parler d'automatismes adaptatifs.
Évidemment c'est moins vendeur mais plus juste quant à la réalité technique.
L'Intelligence est indissociable de la Conscience et on est à des années lumières d'en maîtriser la nature.
Cela viendra peut-être un jour, mais en attendant il y a des comportements d'une grande naïveté au sujet de l'IA qui pourraient bien aboutir à des "Titanic" numériques.
19  0 
Avatar de yoyo3d
Membre éprouvé https://www.developpez.com
Le 23/07/2020 à 12:20
C'est quand même paradoxale, on essaye de faire évoluer les machines en leur donnant la possibilité d'apprendre, on essaye de les faire se comporter comme des être humains (langage, posture etc), les chercheurs et les grosses boites de robotiques se plient en 4 pour donner apparence humaine à leurs joujoux et aujourd'hui on s’inquiète du risque que ces machine se comportent comme des cons (comme nous quoi).
qu'est ce qui empêche un robot doté de compétences cognitives avancées, de faire un mauvais choix... s'il pense que c'est bien...? les lignes de directives qu'on lui fait avaler alors que nous même somme incapables de prendre les bonnes décisions sur le climat, la santé, la pauvreté, la paix???
9  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 23/07/2020 à 9:36
Citation Envoyé par Patrick Ruiz Voir le message
Elles sont juste beaucoup plus bêtes qu'elles ne le pensent
Je vais citer Coluche qui citait René Descartes :
« L'intelligence, c'est la chose la mieux répartie chez les hommes parce que, quoiqu'il en soit pourvu, il a toujours l'impression d'en avoir assez, vu que c'est avec ça qu'il juge. »
Donc quelque part chaque individu est plus bête qu'il ne le pense.
La chose la plus intelligente à dire ça doit être « je ne sais qu'une chose, c'est que je ne sais rien ».
Peut-être que les plus intelligents ne parlent pas :
« Le sot parle, le lâche se tait, le sage écoute. »
« Mieux vaut rester silencieux et passer pour un imbécile que parler et n'en laisser aucun doute. »

L'IA n'est qu'à ses balbutiements, on ne sait pas quel stade elle pourra atteindre.
Mais rien qu'avec beaucoup de données et des algorithmes il y a moyen de faire des dégâts.
7  0 
Avatar de Aiigl59
Membre régulier https://www.developpez.com
Le 31/07/2020 à 18:15
Il faut tout de même signaler avant de "s'emballer", qu'à l'heure actuelle, personne (ni scientifique, ni philosophe) n'est capable de donner une définition de l'intelligence, encore moins de la mesurer. Le QI n'est pas une mesure mais des tests adaptés à notre façon de raisonner, rien à voir avec la mesure d'une intelligence.
Une réflexion toute simple à propos de la définition de l'intelligence: Les sociétés à base d'insectes (ex: fourmis) perdurent depuis bien plus longtemps que nous sans avoir détruit la planète sur laquelle elle se développent. Une espèce (ex: l'humain) qui arrive à détruire le système qui le fait exister, entraînant inexorablement sa disparition, peut elle être qualifiée pour être classée comme intelligente... Je laisse le débat ouvert, comme il se doit.
Salutations à tous !
6  0 
Avatar de michel.bosseaux
Membre confirmé https://www.developpez.com
Le 23/07/2020 à 9:43
Une IA peut être plus efficiente (je préfère dire ça plutôt que parler de réelle intelligence) que l'homme dans la résolution de certains types de problèmes ou dans certains modes de réflexion pour lesquels elle a été conçue.
Mais le propre de l'intelligence humaine est de pouvoir aborder les problèmes de très nombreuses façons, de ne pas se limiter.
Donc pour moi, on en restera à l'IA pour des tâches bien précises et délimitées, et l'homme pour tout le reste. Un jour arrivera p-e où une IA nous égalera mais il faudra longtemps ...
5  0 
Avatar de Karshick
Membre régulier https://www.developpez.com
Le 23/07/2020 à 9:50
Citation Envoyé par michel.bosseaux Voir le message
Une IA peut être plus efficiente (je préfère dire ça plutôt que parler de réelle intelligence) que l'homme dans la résolution de certains types de problèmes ou dans certains modes de réflexion pour lesquels elle a été conçue.
Mais le propre de l'intelligence humaine est de pouvoir aborder les problèmes de très nombreuses façons, de ne pas se limiter.
Donc pour moi, on en restera à l'IA pour des tâches bien précises et délimitées, et l'homme pour tout le reste. Un jour arrivera p-e où une IA nous égalera mais il faudra longtemps ...
Longtemps, à quelle échelle ?
L'informatique ça a moins de 80 ans, les progrès faits dans ce domaine ont été constants. Nous ne serons peu être plus de ce monde lorsqu'une telle IA existera (et encore que, je pense que c'est l'affaire au maximum d'un demi siècle) mais si tu compare par rapport a l'age de la civilisation humaine, ce n'est rien du tout.

Citation Envoyé par VBurel Voir le message
Quand les machines ont du bon sens ca mène à Terminator : Skynet :-) Le résultat est le même finalement :-)
Non.

Citer une fiction pour exemple de ce qui pourrait arriver dans un futur incertain c'est contre productif. Nous ne savons pas ce qui pourrait advenir dans le cas ou une telle IA serait crée.
4  1 
Avatar de frfancha
Membre éprouvé https://www.developpez.com
Le 23/07/2020 à 19:39
Citation Envoyé par egann538 Voir le message
Euh en fait non. Les chercheurs sont tout-à-fait capables de produire des IA dont ils ne peuvent pas prédire le comportement, et qui vont produire des solutions qu'il aurait été très difficile de coder. Par exemple dans le cas de déplacements optimisés d'hexapodes, ou simplement de robots quadrupèdes en milieu accidenté. On est loin de simples "lignes de code exécutées".
Ce ne sont pas des lignes de code exécutées ? C'est quoi alors ?
3  0 
Avatar de L33tige
Membre éclairé https://www.developpez.com
Le 24/07/2020 à 10:46
Venant d'un gars qui vends des projets qui ne peuvent pas êtres viables comme l'hyperloop avant même les maquettes...

Enfin je suis d'accord avec le fait qu'il à fait un paquet de bon business model pour certaines de ses entreprises, mais ya un paquet de pétards mouillés à côté.
3  0 
Avatar de yoyo3d
Membre éprouvé https://www.developpez.com
Le 24/07/2020 à 14:21
D'où viendrait la motivation d'une IA à vouloir nous détruire
Sa motivation pourrait découler:
- d'une partie de son code (écrit par des humains) qui lui impose de faire les "bons choix" et de proscrire les mauvais choix ...(là c'est plutôt facile à borner)
- de son expérience acquise par l'apprentissage qui, par conséquent n'est pas programmée, (c'est là que survient le risque, car quelle serait donc la limite de cette expérience auto développée)

on peut considérer que, tous les choix possibles dans la vie n'étant pas programmables, la machine définisse elle même comme "bon choix" quelque chose que , nous humains , mettons dans la catégorie des mauvais choix.
ex, une machine pourrait décider que nos hésitations ou nos "sentiment" sont en contradictions avec les "objectifs" que nous lui imposons par le biais d'un programme.

Bon, on se rapproche beaucoup d'asimov, d'i robot, de tron et tous les films ou les machines disposent à un moment d'un petit peu trop de "libre arbitre" et qu'elles décident de se passer de nous pour réfléchir.
je pense notre volonté de créer des machines de plus en plus humaines (conscience, sentiment, psychologie....) que nous finirons par leur donner aussi nos défauts...
3  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 23/07/2020 à 10:43
Citation Envoyé par Neckara Voir le message
il pourra toujours battre une IA donnée. Il lui suffira de couper le courant
Un programme peut être présent dans énormément d'appareils et du coup c'est compliqué de l'arrêter.
Il y a plein d'objets connectés qui ont été hacké afin de faire des attaques par dénis de service ou de miner de la cryptomonnaie, il y a des histoires de PC zombies et tout ça.
Donc c'est possible qu'une IA se répande comme un virus, elle viendrait s'installer dans des millions d'appareils.
Théoriquement ça doit être jouable.

Citation Envoyé par Jamatronic Voir le message
Une IA ce sont des lignes de code exécutées. Sachant qu'un programme informatique ne peut réaliser que ce pour quoi il a été pensé, il n'est par définition "pas plus intelligent que son auteur"
Les IA apprennent, il faut juste leur donner beaucoup de données.
Par exemple avec les IA d'échecs ou de Go : on a laissez jouer une IA des milliards de partie contre elle même et elle a largement dépassé les humains.

Au bout d'un moment on donnera aux IA un très grand nombre de livres à lire, elle va les interpréter et les comprendre. Si ça se trouve ça donnera quelque chose.
Je crois que déjà aujourd'hui il y a une IA qui a assimilé 150 compositions de Beethoven et qui a écrit une fin à 10e symphonie.

En tout cas c'est marrant quand on laisse une IA discuter avec des gens sur Twitter, parce que les gens s'amusent à lui faire croire n'importe quoi et le résultat est parfois marrant (Microsoft Tay est génial ).

====
Bon sinon l'armée investit des milliards dans le développement d'arme qui utilise l'IA, donc ça va forcément être dangereux
Un jour il y aura probablement des drones autonomes armés de fusils d’assauts.
Il peut également des drones autonomes avec reconnaissances faciale qui surveilleront la population.
Si t'habites en ville tu pourras être suivi en permanence (remarque il suffit de suivre la géolocalisation de ton smartphone pour savoir où tu te situes).
2  0