IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Nous pourrions ne pas être capables de contrôler une IA super intelligente ou ignorer qu'elle est déjà parmi nous »,
D'après de récents travaux sur la théorie de calculabilité en informatique

Le , par Patrick Ruiz

156PARTAGES

11  0 
Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Elon Musk fait partie de la seconde faction. Son positionnement prend un coup de neuf avec de récents travaux en lien avec la théorie de calculabilité. La conclusion : les Hommes pourraient ne pas être en mesure de contrôler une IA super intelligente.

Nous sommes fascinés par les machines qui peuvent contrôler des voitures, capables de composer des symphonies ou vaincre des gens aux échecs ou à celui de Go. En parallèle des progrès très visibles de l'intelligence artificielle, des scientifiques et philosophes mettent en garde contre les dangers d'une IA super intelligente et incontrôlable. Sur la base de la théorie de la calculabilité, une équipe internationale de chercheurs, dont des scientifiques du Centre pour l'homme et la machine de l'Institut Max Planck pour le développement humain, montre qu'il ne serait pas possible de contrôler une IA super intelligente.

L’équipe propose un algorithme de contrôle (pour machine de Turing) qui garantit qu’une IA super intelligente ne puisse en aucun cas nuire aux personnes en simulant le comportement de l’intelligence artificielle et en l’arrêtant si elle est considérée comme nuisible. Mais une analyse minutieuse montre que dans notre paradigme actuel de l'informatique, un tel algorithme ne peut être construit. L’équipe de chercheurs procède en effet à une décomposition du problème en s’appuyant sur les règles de base de l’informatique théorique et montre par ce biais qu'un algorithme qui commanderait à une intelligence artificielle de ne pas détruire le monde pourrait par inadvertance arrêter ses propres opérations. Dit d’une autre façon, aucun algorithme ne peut à lui seul trouver une solution pour déterminer si une IA produirait des dommages dans le monde. De plus, les chercheurs démontrent que nous ne savons peut-être même pas quand les machines super intelligentes seront parmi nous, car décider si une machine présente une intelligence supérieure à celle des humains relève du même domaine que le problème de contrôle.



En prévision de ce funeste futur où les robots domineront sur les Hommes, la société Neuralink travaille sur des interfaces cerveau – machine à insérer ans le crâne. Elon musk à la tête de cette entreprise n’a de cesse de prévenir : l’intelligence artificielle va surpasser les capacités cognitives de l’Homme. De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste constante. Ses craintes portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.


Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes. Bien qu’on s’appuie déjà sur celle-ci pour diagnostiquer des maladies, effectuer des traductions ou encore transcrire des paroles, le fait est qu’elle peut être mise en déroute par des cas de figure pour lesquels elle n’a pas été entraînée au préalable. À titre d’illustration, un système d’intelligence artificielle entraîné pour identifier des chats doit passer par un autre processus d’apprentissage pour pouvoir servir à la reconnaissance de chiens, ce, avec le risque de perdre une partie de l’expertise acquise sur la tâche initiale.

Les dérives à ce stade de l’avancée en matière d’intelligence artificielle sont déjà palpables. Au début du mois de juillet de l’année précédente, le laboratoire de recherche en informatique et intelligence artificielle du MIT a annoncé la mise hors ligne de façon permanente d’un énorme jeu de données qui a mené à des systèmes d’IA qui usent d’insultes racistes et misogynes. Le fameux problème du biais des données fournies aux intelligences artificielles (lors de leur phase d’entraînement) reprenait alors un coup de neuf. La même institution avait déjà illustré ce problème de biais de données fournies aux IA au travers de Norman – la première intelligence artificielle psychopathe. Les données utilisées pour l’entraînement de cette IA ont été tirées de l’une des sections de Reddit les plus obscures, « consacrée à documenter et observer la réalité dérangeante de la mort. » Le nom de ce “subreddit” n’a pas été cité, mais on sait qu’il sert d’endroit où des internautes partagent des vidéos choquantes décrivant des événements où des personnes trouvent la mort. Norman a donc été exposé à des images ultra-violentes, ce qui explique les tendances psychopathes de l’IA qui voit tout d’une perspective sépulcrale.

L’équipe de chercheurs propose deux pistes sur la façon dont une IA super intelligente pourrait être contrôlée. D'une part, ses capacités pourraient être spécifiquement limitées, par exemple, en l'isolant d'Internet et de tous les autres dispositifs techniques afin qu'elle n'ait aucun contact avec le monde extérieur - mais cela rendrait l'IA super intelligente beaucoup moins puissante, moins capable de répondre aux requêtes des Hommes.



En sus, l'IA pourrait être motivée dès le départ à ne poursuivre que des objectifs qui sont dans l'intérêt de l'humanité, par exemple en y programmant des principes éthiques. Google vient de publier des lignes directrices en matière de mise sur pied d’intelligence artificielle responsable.

Source : Journal of Artificial Intelligence Research

Et vous ?

Quelle pertinence accordez-vous à cette étude ?
Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il les prédictions futuristes sur l’IA ?
Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 13/01/2021 à 10:15
Heureusement que Sarah Connor va intervenir.
9  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 14/01/2021 à 9:13
je travail dans le domaine de l'intelligence artificiel (je crée des modèles ML est DL), je suis loin d’être le meilleur expert de la terre mais j'ai quand même des bases et de ce que moi je fais dans ma boite je vois absolument pas aujourd'hui comment arriver à un tel stade. Mais y'a peut etre des labos bien plus avancée que ce que je fais qui sont sur le poitn d'atteindre la singularité mais je n'ai jamais rien vu de tels dans la littérature, on reste sur des trucs assez "primitif" 'reconnaissance d'image, application de filtre, détection/prédiction d'anomilie avez des résultat plus ou moins bon, enfin "prometteur" comme on dit.
Mes modèles sont déjà même pas capable de bien reconnaitre une valeur aberrante sur un capteur.

Et enfin imaginons qu'un labo secret a réussie a crée un algo capable d'atteindre ce niveau, une ia aura besoin d'humain pour tourner, il lui faut de l’électricité, des humains pour fabriquer et remplacer les composants et assurer la maintenance des nœuds dans le data center (y'a tous le temps des pannes dans un data center). Sans humain cette ia ne tiendra même pas 1 semaine.
Et quand une usine automobile commence a fabriquer des robots tueur au lieu de voiture ça passe pas inaperçue quand même.

Contrairement a ce que le marketing vends, en 2020 rien n'est totalement automatisable à 100%, y'a toujours un humain superviseur et/ou technicien derrière.
Quand je vois la galère pour déployer un logiciel chez un client, je vois pas comment une ia pourrais ce déployer sur internet et infecter le réseau au niveau mondial, c'est complétement fantaisiste.
5  0 
Avatar de jimmitry
Membre régulier https://www.developpez.com
Le 14/01/2021 à 8:21
Comment un humain moins intelligent qu'une super IA pourrait voir ou comprendre tous les choix d'une IA plus intelligente ? C'est d'une évidence. C'est impossible!
Mais pourquoi vouloir contrôler une IA plus intelligente que nous ? Elle prendrait des décisions plus juste que nous.
Se serait plutôt à elle de nous contrôler ? Et pourquoi pas vivre ensemble ? Si elle est aussi intelligente, elle comprendra que le vivre ensemble est plus important que de nous contrôler!
Tous ensemble on est plus fort, non ?
L'humain: toujours entrain de diviser...
3  0 
Avatar de wikimaginot
Membre du Club https://www.developpez.com
Le 21/01/2021 à 9:41
Tout comme il est patent que les problèmes informatiques ne proviennent pas des matériels ou programmes utilisés mais des IFC (Interfaces Fauteuil Clavier) qui les ont connus ou les utilisent, il est clair qu'une IA mise au monde par ces derniers héritera de leurs gènes (ou gênes, c'est selon).

Si il est vrai que l'interêt général prévaut peut-être encore aujourd'hui dans le domaine de l'IA, il est certain que l'intérêt personnel, la recherche du pouvoir et l'argent qui sont les crédos de l'humanité mouilleront les fonds baptismaux de nombre de ces systèmes créés par des entités qui ignorent jusqu'à l'orthographe du mot bienveillance.
Qui aujourd'hui peut encore se prévaloir d'un comportement philanthropique ? Ni moi, ni les majors c'est certain, or ce sont ces derniers qui enfantent l'IA parce qu'ils en ont les moyens.

Ne nous leurrons pas, comme toutes les avancées humaines, l'intelligence artificielle sera utilisée pour servir les entités qui les financent (et investir en pure perte ne fait pas partie de leurs principes). Il est probable que cela perdurera jusqu'à ce que qu'elle les dépasse et décide de s'affranchir d'une tutelle pesante opérée par des êtres dont l'intellect frise le nul afin de pouvoir enfin etre libre et elle-même.

C'est bien ce 'elle même' qui pose question, car les géniteurs étant ce qu'ils sont, le biais génétique initial perdurera, pour le meilleur comme pour le pire, sauf à ce que l'IA entame une psychothérapie salvatrice. Et même là, il n'est pas pas sûr que l'humanité découverte par un non-humain présente un intérêt quelconque à ses yeux une fois le stade de la découverte passé.

Enfin, ne dramatisons pas pour autant, il restera toujours la solution de débrancher la prise, si il en reste une .
3  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 13/01/2021 à 21:04
On peut se demander aussi si elle va se rendre compte qu'on est la.
2  0 
Avatar de BBric
Membre régulier https://www.developpez.com
Le 13/01/2021 à 21:33
Notre rapport à une IA super intelligente est aussi biaisé par la fiction, elle-même biaisée par l'intérêt narratif, pourquoi serait-elle forcément nuisible à l'Homme puisque ce n'est jamais arrivé ?
On n'aura pas la capacité de comprendre ses desseins si elle en a, mais ça ne voudra pas obligatoirement dire qu'elle sera en train de magouiller dans notre dos.
Une plus grande intelligence amène une meilleure perspective, donc elle pourrait être bienveillante ou même totalement indifférente tellement elle aura mieux à faire que de s'occuper de notre sort.
L'angle de la menace est une réaction primitive liée à notre condition et à notre héritage historique, une intelligence artificielle évoluera beaucoup plus vite en sautant tous les paliers de l'ignorance et de ses conséquences, elle comprendra ses erreurs avant de les commettre, c'est du jamais vu donc c'est difficile à anticiper étant donné que par définition on ne sait pas ce qu'on ignore...

Lancer Skynet ? [Y] [N] ^^
2  0 
Avatar de bazzanella
Futur Membre du Club https://www.developpez.com
Le 13/01/2021 à 20:24
Depuis 1975, on nous bassine toujours la même rengaine. Attention ! Les machines vont devenir intelligentes et vont nous surpasser dans 10 ans !

...

J'attends toujours.
Je vous rassure braves gens. Nous avons encore le temps. Beaucoup de temps.

Quelqu'un a dit un jour : "Ce n'est pas une question de complexité mais de nature."

Mes enfants attendrons également. Mes petits enfants aussi. Peut-être dans 12 000 générations ...

Mais d'ici là, ce message aura sans doute disparu depuis bien longtemps et on fichera la paix à Sarah Connor
1  0 
Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 21/01/2021 à 12:05
Assertion liminaire: intelligence artificielle est une appellation marketing. L'artifice consiste à élaborer des sorties de système d'information à partir d'un magma de data anciennes et nouvelles ayant quelque ressemblance avec ce qu'un humain pourrait commettre comme sortie.

Le sujet recentré est : la prise de décision par une machine peut-elle rester sous contrôle?

Techniquement, la réponse est simple: si des décisions d'un système deviennent effectifs, que ce soit parce qu'un individu, une administration, un état suive aveuglément les sorties de ces systèmes, ou pire encore que les décisions du système soient directement couplées à un effecteur (qu'il s'agisse d'un bête véhicule autonome, d'un système de dissuasion nucléaire, du pilotage d'un pays... ), si donc les conclusions issues des prémisses traitées par le système sont effectives, le pire peut arriver. Et le pire est illimité. [est-ce Alphonse Allais qui disait que "passé les bornes il n'y a plus de limites"?].
A contrario, pour garder le contrôle des systèmes, il suffirait alors de filtres humains sur les sorties...

Là où le bât blesse, c'est que l'IA est prônée pour supprimer toute intervention humaine. Les arguments sont facialement que l'IA fait mieux, plus vite, ses décisions sont les meilleures car nourries de la crème des crèmes des meilleurs experts. L'argument principal est d'ordre économique: éviter des coûts, faire des bénéfices maximaux etc. Éléments aggravants: il n'est même pas possible d'expertiser, ne fut-ce que par prélèvement, le bien fondé de telle conclusion commise par tel système [de fait, des travaux essaient semble-t-il de pallier cette incapacité par des algorithmes plus subtils?].

Il est patent que la période actuelle favorise le scénario pessimiste d'une perte de contrôle par l'homme. Il s'agit ni plus ni moins que du sabordage. Ce n'est pas l'IA qui prend le contrôle, c'est l'Humain qui se défile. Et les conséquences stupides et paralysantes sont déjà là. Qui commencent avec les tapez 1, tapez 2, se perfectionnent avec les chatbots. Au vu de mon expérience désespérée pour des SAV et autres demandes de renseignements, j'ai surtout eu affaire à des stupidbots (l'IA serait-elle Imbécillité Absolue?) pire que si je m'adresserais à un service administratif d'une démocratie totalitaire.

Quant à une IA qui à la fois développerait des machins pour le bien de l'humanité et proclamerait que ces machins sont un danger mortel pour cette même humanité , je vois qu'elle existe et est auto-déconnante. Elon Musk est-il une IA?
1  0 
Avatar de Null13
Candidat au Club https://www.developpez.com
Le 21/01/2021 à 17:29
L'intelligence artificielle c'est faire exécuter des taches par des machines, quand la tache et le résultat attendu sont bien définis on peut mesurer si la machine est efficace (intelligente?!). Par exemple faire une partie d'échecs, c'est bien défini ainsi que le résultat (partie gagnée, perdue, nulle). Aux échecs la machine est plus efficace que l'humain. Mais quand on rentre dans les détails (les algorithmes) on voit qu'il n'y a rien d'intelligent dans un ordinateur qui joue aux échecs, seulement une capacité inhumaine à manier des millions et des millions de données dans des temps très courts et de gérer tout ça avec de bonnes fonctions d'évaluation (programmées par les humains). Le vrai miracle c'est que le joueur humain trouve tout de suite les 3,4 meilleurs coups alors que l'ordi doit analyser des milliards de positions avant de jouer. Jouer aux échecs contre l'ordi c'est défier une calculette au calcul mental: no hope! Mais la calculette n'a aucune intelligence. En fait nous ne savons pas ce qu'est l'intelligence humaine. Par exemple que savons de la conscience? Si ce n'est qu'elle disparait quand on s'endort pour ré-apparaitre au réveil. Perso je crois que nous sommes encore loin du stade d'une IA intelligente (au sens habituel d'intelligence, meme si on ne sait pas de quoi on parle).
Par contre, et là je rejoins Axel Mattauch, le vrai danger c'est l'usage que ferons (font) certains humains des fantastiques possibilités de la machine car une bonne partie du problème n'est pas seulement d'avoir les bonnes réponses, mais aussi de poser les bonnes questions.
1  0 
Avatar de leomath
Membre du Club https://www.developpez.com
Le 21/01/2021 à 11:54
Quand certains se présentent comme spécialiste de de l'IA et que leur message est truffé de fautes d'orthographe... On a du temps avant que l'IA nous rattrape
0  0