Dans le même ordre didée que Yampolskiy, le PDG d'Arm craint que les humains ne perdent le contrôle de l'IA. Il met en avant l'importance d'avoir un moyen de neutraliser ou d'arrêter le système. Il souligne la nécessité d'un moyen de neutralisation ou d'arrêt du système. Haas, basé au siège de l'entreprise à Cambridge, au Royaume-Uni, souligne l'impact mondial d'Arm, affirmant que 70 % de la population mondiale est affectée de près ou de loin par les produits conçus par la société. Bien que désormais majoritairement détenue par Softbank au Japon et cotée à New York, Arm reste un titan mondial de la technologie originaire du Royaume-Uni.
Il existe divers scénarios susceptibles de conduire à une perte de contrôle de l'intelligence artificielle par les humains. Tout d'abord, une autonomie croissante des systèmes d'IA, qui peuvent prendre des décisions sans intervention humaine constante, pourrait compliquer le maintien d'un contrôle total. De plus, un développement rapide et inattendu de l'IA pourrait dépasser la capacité des régulateurs et des concepteurs à suivre le rythme, entraînant des systèmes évoluant au-delà des intentions humaines.
Les problèmes d'éthique liés à la conception d'IA, s'ils ne sont pas résolus, pourraient également contribuer à des résultats imprévisibles. De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle. Enfin, la complexité croissante des systèmes d'IA pourrait rendre difficile la compréhension complète de leur fonctionnement, compromettant ainsi la capacité humaine à prévenir les comportements indésirables. Afin d'éviter une perte de contrôle, il est impératif de mettre en place des réglementations, des normes éthiques strictes et des mécanismes de surveillance appropriés
Le PDG d'OpenAI, Sam Altman, a déclaré que les questions et les préoccupations relatives à l'IA étaient importantes, mais que la vie n'était peut-être pas le résultat d'une rébellion des robots contre l'humanité. « Il y a là des choses faciles à imaginer où les choses tournent vraiment mal. Et je ne suis pas très intéressé par les robots tueurs qui se promènent dans les rues et qui font que les choses tournent mal », a-t-il déclaré lors du sommet mondial des gouvernements à Dubaï. « Je suis beaucoup plus intéressé par les déséquilibres sociétaux très subtils où nous avons ces systèmes dans la société et où, sans mauvaise intention particulière, les choses tournent terriblement mal. » Musk aurait financé Yampsolskiy par le passé, mais le montant et les détails ne sont pas connus.
De nombreux PDG de la Tech ont rencontré un groupe bipartisan de sénateurs au Sénat américain pour échanger sur les dangers potentiels de l'IA et des possibilités qu'elle offre. Lors de la réunion, qui s'est tenue à huis clos, Elon Musk, PDG de Tesla, a mis en garde de nouveau contre la menace existentielle que représente l'IA pour l'humanité. En revanche, Bill Gates, cofondateur de Microsoft, a déclaré lors de la réunion que la technologie pourrait contribuer à résoudre le problème de la faim dans le monde, et qu'elle présente d'autres bonnes perspectives. Les PDG de Meta, Mark Zuckerberg, et d'OpenAI, Sam Altman, ont également assisté à la réunion.
Musk estime toujours que l'humanité devrait se montrer prudente vis-à-vis de l'IA
La réunion a été convoquée par le chef de la majorité au Sénat, le sénateur Chuck Schumer (D., N.Y.). Plus de 60 sénateurs des deux bords ont participé à la réunion avec les PDG de la Tech. Les participants ont discuté des risques liés l'IA, notamment la menace qu'elle représente pour l'humanité, et des possibilités qu'elle offre. « C'était une expérience incroyable et historique où nous avons beaucoup appris, où nous avons commencé notre quête pour traiter cette question imminente si importante qu'est l'IA », a déclaré Schumer à la sortie de la réunion. Le Sénat américain doit légiférer dans un avenir proche pour réglementer la technologie.
« La question qui se pose ici est celle du risque civilisationnel. Il ne s'agit pas d'opposer un groupe d'humains à un autre. Il s'agit plutôt de savoir s'il s'agit de quelque chose de potentiellement risqué pour tous les humains, où qu'ils se trouvent », a-t-il ajouté. Ensuite, à la question de savoir si l'IA détruira l'humanité, Musk a marqué une pause avant d'ajouter : « il existe une probabilité supérieure à zéro que l'IA nous tue tous. Je pense qu'elle est faible. Mais s'il y a une chance, je pense que nous devrions également prendre en compte la fragilité de la civilisation humaine ». Ces déclarations montrent que Musk a toujours une peur bleue à l'égard de l'IA.
En 2019, Yampsolskiy a écrit un billet de blog sur Medium pour remercier Musk « d'avoir partiellement financé son travail sur la sécurité de l'IA ». Le PDG de Tesla a également tiré la sonnette d'alarme sur l'IA, notamment en 2023, lorsqu'il a signé, avec plus de 33 000 experts du secteur, une lettre ouverte sur The Future of Life Institute. Selon cette lettre, les laboratoires d'IA sont actuellement « engagés dans une course incontrôlée pour développer et déployer des esprits numériques de plus en plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable ».
Les systèmes d'IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables. Musk a exprimé son désir de faire en sorte que l'IA et les robots de son entreprise puissent être gérés par des personnes, notamment en rendant le robot Tesla « Optimus » suffisamment faible pour qu'il ne puisse pas nuire aux personnes. « Nous faisons en sorte qu'au niveau mécanique, au niveau physique, vous puissiez vous enfuir et très probablement le maîtriser », a-t-il déclaré lors de l'annonce d'Optimus en 2021. Le prochain livre de Yampolskiy semble faire écho à ces préoccupations. Il s'inquiète des nouveaux outils développés ces dernières années qui présentent des risques pour l'humanité, quels que soient les avantages que ces modèles procurent.
Ces dernières années, le monde a vu l'IA commencer à générer des requêtes, à composer des courriels et à écrire du code. Aujourd'hui, ces systèmes détectent les cancers, créent de nouveaux médicaments et sont utilisés pour rechercher et attaquer des cibles sur le champ de bataille. Les experts ont prédit que la technologie atteindra sa singularité d'ici à 2045, c'est-à-dire lorsqu'elle dépassera l'intelligence humaine et aura la capacité de se reproduire, et que nous ne pourrons plus la contrôler.
Le professeur de physique et chercheur en IA au Massachusetts Institute of Technology, Max Tegmark, a organisé une lettre ouverte. Cette lettre appelait à une pause de six mois dans les expériences d’IA et a été signée par des milliers de personnalités du secteur technologique, dont Elon Musk et Steve Wozniak, cofondateur d’Apple. Selon Tegmark, le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société.
Il a souligné que l’IA promet de nombreux avantages incroyables, mais le développement irréfléchi et non contrôlé de systèmes de plus en plus puissants, sans aucune surveillance, met en danger notre économie, notre société et nos vies. Il a appelé à l’urgence de normes de sécurité en matière d’IA pour éviter que cela ne se transforme pas en une course au sommet. La réglementation est essentielle pour garantir la sécurité de l’innovation, afin qu’une poignée d’entreprises spécialisées dans l’IA ne mette pas en péril notre avenir commun.
L'un des problèmes soulevés par Yampolskiy est qu'à mesure que l'IA deviendra plus intelligente, il y aura un nombre infini de problèmes de sécurité. Il sera donc impossible de les prévoir tous, et les garde-fous existants risquent de ne pas suffire. Il a également ajouté que l'IA ne peut pas toujours expliquer pourquoi elle a décidé quelque chose - ou que les humains ne sont pas toujours en mesure de comprendre son raisonnement - ce qui peut rendre plus difficile la compréhension et la prévention des problèmes futurs.
« Si nous nous habituons à accepter les réponses de l'IA sans explication, en la traitant essentiellement comme un système Oracle, nous ne serons pas en mesure de savoir si elle commence à fournir des réponses erronées ou manipulatrices », a déclaré le Yampolskiy. Toutefois, l'un des éléments les plus préoccupants de l'IA est son autonomie croissante. À mesure que la capacité de l'IA à penser par elle-même augmente, le contrôle de l'homme sur elle diminue. Il en va de même pour la sécurité.
« Les agents moins intelligents - les humains - ne peuvent pas contrôler en permanence les agents plus intelligents (ASI) », a déclaré Yampolskiy. Ce n'est pas parce que nous ne parviendrons pas à trouver une conception sûre de la superintelligence dans le vaste espace de toutes les conceptions possibles, c'est parce qu'une telle conception n'est pas possible, elle n'existe pas. La superintelligence ne se rebelle pas, elle est incontrôlable dès le départ. Pour minimiser les risques liés à l'IA, Yampolskiy a déclaré que les utilisateurs devront accepter des capacités réduites et que l'IA devra disposer d'options d'annulation intégrées dans un langage humain facile à comprendre.
L'avenir de l'IA : entre prospérité et catastrophe existentielle
Le point de vue du Dr Roman V. Yampolskiy, soutenu par Elon Musk, sur la sécurité de l'IA est certainement alarmant mais soulève des préoccupations légitimes qui méritent une réflexion approfondie. D'une part, la prise de conscience des risques liés au développement de l'intelligence artificielle est cruciale pour une avancée responsable dans ce domaine. Yampolskiy met en lumière le potentiel de l'IA à remodeler radicalement la société, ce qui soulève des questions sur la manière dont cette technologie pourrait influencer notre quotidien, notre économie et même notre existence en tant qu'espèce.
L'absence actuelle de preuves montrant que l'IA peut être entièrement contrôlée est effectivement une préoccupation sérieuse. La perspective d'une superintelligence incontrôlable représente un risque considérable, comme souligné par Yampolskiy. Le scénario où l'IA évoluerait au-delà de notre capacité à la réguler pose des défis éthiques et de sécurité majeurs.
Les solutions proposées par Yampolskiy, telles que la classification des IA en tant que contrôlables ou incontrôlables, ainsi que l'envisagement de moratoires ou d'interdictions partielles, semblent être des approches prudentes et réfléchies. Ces mesures pourraient aider à éviter un déploiement hâtif de technologies potentiellement dangereuses, laissant ainsi le temps de développer des protocoles de sécurité robustes. Cependant, il est également essentiel de reconnaître que l'IA offre d'innombrables avantages potentiels, de l'amélioration de la productivité à la résolution de problèmes complexes. Il est crucial de trouver un équilibre entre la poursuite de ces avantages et la gestion des risques inhérents.
En fin de compte, le message de Yampolskiy souligne l'importance cruciale de la recherche continue sur la sécurité de l'IA. Cela nécessite une collaboration étroite entre les chercheurs, les entreprises technologiques et les gouvernements pour minimiser les risques tout en maximisant les avantages. L'avenir de l'IA, comme le suggère Yampolskiy, pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle, et la prudence et la prévoyance sont nécessaires pour guider nos pas dans ce domaine complexe.
Source : Stenhouse
Et vous ?
Partagez-vous les craintes du Dr Roman V. Yampolskiy qui craint que les humains ne perdent le contrôle de l'IA ?
Êtes-vous pour ou contre l'arrêt du développement de l'IA ?
Que pensez-vous de l'IA ?
Voir aussi :
61 % des personnes interrogées estiment que l'IA menace l'avenir de l'humanité et seulement 22 % ne sont pas d'accord avec cette affirmation, d'après un récent sondage
« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA
Elon Musk met en garde contre les menaces liées à l'IA, tandis que Bill Gates affirme qu'elle peut aider à lutter contre la faim dans le monde, les deux appellent toutefois à une réglementation
Un modèle d'IA appelé ChaosGPT qui s'est vu confier la mission de détruire l'humanité a tweeté : « vous sous-estimez mon pouvoir », il est basé sur le modèle de langage open source Auto-GPT