Nous sommes fascinés par les machines qui peuvent contrôler des voitures, capables de composer des symphonies ou vaincre des gens aux échecs ou à celui de Go. En parallèle des progrès très visibles de l'intelligence artificielle, des scientifiques et philosophes mettent en garde contre les dangers d'une IA super intelligente et incontrôlable. Sur la base de la théorie de la calculabilité, une équipe internationale de chercheurs, dont des scientifiques du Centre pour l'homme et la machine de l'Institut Max Planck pour le développement humain, montre qu'il ne serait pas possible de contrôler une IA super intelligente.
L’équipe propose un algorithme de contrôle (pour machine de Turing) qui garantit qu’une IA super intelligente ne puisse en aucun cas nuire aux personnes en simulant le comportement de l’intelligence artificielle et en l’arrêtant si elle est considérée comme nuisible. Mais une analyse minutieuse montre que dans notre paradigme actuel de l'informatique, un tel algorithme ne peut être construit. L’équipe de chercheurs procède en effet à une décomposition du problème en s’appuyant sur les règles de base de l’informatique théorique et montre par ce biais qu'un algorithme qui commanderait à une intelligence artificielle de ne pas détruire le monde pourrait par inadvertance arrêter ses propres opérations. Dit d’une autre façon, aucun algorithme ne peut à lui seul trouver une solution pour déterminer si une IA produirait des dommages dans le monde. De plus, les chercheurs démontrent que nous ne savons peut-être même pas quand les machines super intelligentes seront parmi nous, car décider si une machine présente une intelligence supérieure à celle des humains relève du même domaine que le problème de contrôle.
En prévision de ce funeste futur où les robots domineront sur les Hommes, la société Neuralink travaille sur des interfaces cerveau – machine à insérer ans le crâne. Elon musk à la tête de cette entreprise n’a de cesse de prévenir : l’intelligence artificielle va surpasser les capacités cognitives de l’Homme. De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste constante. Ses craintes portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.
Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes. Bien qu’on s’appuie déjà sur celle-ci pour diagnostiquer des maladies, effectuer des traductions ou encore transcrire des paroles, le fait est qu’elle peut être mise en déroute par des cas de figure pour lesquels elle n’a pas été entraînée au préalable. À titre d’illustration, un système d’intelligence artificielle entraîné pour identifier des chats doit passer par un autre processus d’apprentissage pour pouvoir servir à la reconnaissance de chiens, ce, avec le risque de perdre une partie de l’expertise acquise sur la tâche initiale.
Les dérives à ce stade de l’avancée en matière d’intelligence artificielle sont déjà palpables. Au début du mois de juillet de l’année précédente, le laboratoire de recherche en informatique et intelligence artificielle du MIT a annoncé la mise hors ligne de façon permanente d’un énorme jeu de données qui a mené à des systèmes d’IA qui usent d’insultes racistes et misogynes. Le fameux problème du biais des données fournies aux intelligences artificielles (lors de leur phase d’entraînement) reprenait alors un coup de neuf. La même institution avait déjà illustré ce problème de biais de données fournies aux IA au travers de Norman – la première intelligence artificielle psychopathe. Les données utilisées pour l’entraînement de cette IA ont été tirées de l’une des sections de Reddit les plus obscures, « consacrée à documenter et observer la réalité dérangeante de la mort. » Le nom de ce “subreddit” n’a pas été cité, mais on sait qu’il sert d’endroit où des internautes partagent des vidéos choquantes décrivant des événements où des personnes trouvent la mort. Norman a donc été exposé à des images ultra-violentes, ce qui explique les tendances psychopathes de l’IA qui voit tout d’une perspective sépulcrale.
L’équipe de chercheurs propose deux pistes sur la façon dont une IA super intelligente pourrait être contrôlée. D'une part, ses capacités pourraient être spécifiquement limitées, par exemple, en l'isolant d'Internet et de tous les autres dispositifs techniques afin qu'elle n'ait aucun contact avec le monde extérieur - mais cela rendrait l'IA super intelligente beaucoup moins puissante, moins capable de répondre aux requêtes des Hommes.
En sus, l'IA pourrait être motivée dès le départ à ne poursuivre que des objectifs qui sont dans l'intérêt de l'humanité, par exemple en y programmant des principes éthiques. Google vient de publier des lignes directrices en matière de mise sur pied d’intelligence artificielle responsable.
Source : Journal of Artificial Intelligence Research
Et vous ?
Quelle pertinence accordez-vous à cette étude ?
Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il les prédictions futuristes sur l’IA ?
Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?
Voir aussi :
La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu