En mai, le PDG et cofondateur d’OpenAI, Altman, a cosigné une lettre affirmant que « l’atténuation du risque d’extinction dû à l’IA devrait être une priorité mondiale ». En mars, plus de 1 100 chefs d’entreprise, dont Elon Musk et Steve Wozniak, cofondateur d’Apple, ont appelé à un moratoire de six mois sur l’entraînement des IA pour les armes autonomes.
Bill Gates, Elon Musk et d’autres experts mettent en garde contre les dangers de l’IA
En Mars, Bill Gates a publié une lettre de 7 pages dans laquelle il soulignait que l’IA est utile sans toutefois manquer d’indiquer qu’elle est susceptible d’attaquer les humains dans le futur. Sa sortie visait répondre aux craintes sur une possible apocalypse résultant de la création de l’intelligence artificielle.
« Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'IA. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques. Il y a aussi la possibilité que les IA deviennent incontrôlables. Une machine pourrait-elle décider que les humains constituent une menace, conclure que ses intérêts sont différents des nôtres ou simplement cesser de se préoccuper de nous ? C'est possible, mais ce problème n'est pas plus urgent aujourd'hui qu'il ne l'était avant les développements de l'IA de ces derniers mois », avait-il déclaré.
L’idée de Bill Gates rejoint celle de Michael Osborne et Michael Cohen de l’université d’Oxford : « « L’intelligence artificielle est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer. »
Dans une interview accordée à ABC News, Sam Altman, PDG d'OpenAI, a déclaré qu’il se sentait effrayé par sa propre invention. Il a mentionné quelques domaines clés dans lesquels l'IA pourrait s'avérer problématique. Tout d'abord, Altman craint que des régimes autoritaires ne finissent par créer leur propre IA et ne s'empressent de l'utiliser pour diffuser de la désinformation et des fausses nouvelles à leurs propres fins néfastes.
Vladimir Poutine a fait des commentaires effrayants sur l'IA. Selon lui, celui qui contrôlera l'IA finira par contrôler le monde, ce qui fait froid dans le dos car c'est le genre de chose qui pourrait potentiellement déclencher une nouvelle course à l'armement avec l'IA au centre de tout cela. En mai, Altman, a cosigné une lettre affirmant que « l'atténuation du risque d'extinction dû à l'IA devrait être une priorité mondiale ».
Elon Musk, le fondateur de Tesla et SpaceX, a exprimé des inquiétudes quant aux dangers de l’IA. Selon lui, l’IA est plus dangereuse que les ogives nucléaires et nécessite une réglementation pour superviser son développement. Bien qu’il ne soit pas généralement partisan de la réglementation et de la surveillance, il a averti que le public court un grave danger dans cette situation. Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire.
L’IA, un danger pour l’humanité selon le réalisateur de Terminator
Le réalisateur canadien James Cameron a déclaré en juillet qu'il partage l'avis des experts en IA qui affirment que les progrès de cette technologie représentent un risque sérieux pour l'humanité. Lors d'une interview, il a affirmé avoir essayé de mettre en garde l'humanité contre les dangers potentiels de l'IA à travers son film de science-fiction Terminator en 1984, mais n'a pas été écouté. Aujourd'hui, près de 40 ans après, Cameron se dit toujours terrifié par l'IA. Auparavant, le cinéaste avait affirmé que l'IA a pris le pouvoir et qu'il est désormais trop tard. Il a déclaré que l'IA doit être réglementée et développée uniquement dans le but de servir l'intérêt de tout le monde.
« Je vous ai mis en garde en 1984, et vous n'avez pas écouté », a déclaré Cameron, en faisant référence à son film Terminator. Il a indiqué qu'il était important d'évaluer les acteurs qui développent la technologie et de déterminer s'ils le font pour le profit - "enseigner l'avidité" - ou pour la défense, ce qu'il a appelé "enseigner la paranoïa". « Je pense que la militarisation de l'IA est le plus grand danger. Je pense que nous allons nous lancer dans l'équivalent d'une course à l'armement nucléaire avec l'IA, et si nous ne la construisons pas, les autres la construiront à coup sûr, ce qui entraînera une escalade », a-t-il déclaré.
« On pourrait imaginer une IA sur un théâtre de combat, l'ensemble étant mené par les ordinateurs à une vitesse à laquelle les humains ne peuvent plus intervenir, et vous n'avez aucune capacité de désescalade », a-t-il ajouté. En mars, plus de 1 100 chefs d'entreprise, dont Elon Musk et Steve Wozniak, cofondateur d'Apple, ont appelé à un moratoire de six mois sur l'entraînement de modèles d'IA puissants.
De nombreuses personnes redoutent que la course à l’armement ne débouche sur l’apparition de Skynet, une intelligence artificielle maléfique. C’est pourquoi, ces dernières années, une campagne a été menée pour s’opposer à l’utilisation des technologies avancées pour renforcer les capacités militaires, notamment la création d’armes létales autonomes ou semi-autonomes, l’installation d’armes sur les robots et les drones, etc. Ces pratiques se développent dans le secteur civil et dans le secteur militaire (aux États-Unis, en Chine, en Israël, en Russie, etc.) et posent de graves problèmes éthiques.
L’IA n’est pas une menace pour l’humanité, affirme Yann LeCun, le responsable de l’IA chez Meta
Yann LeCun, responsable de l'IA chez Meta, est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Lors d'une récente interview, il a réitéré ses propos selon lesquels « l'IA n'est pas intelligente et est encore plus bête que les chats », ajoutant qu'il est complètement absurde de penser que l'IA pourrait éradiquer l'espèce humaine. Il affirme qu'une réglementation prématurée de l'IA s'avérera un frein pour la recherche et l'innovation dans le domaine, renforcera la domination des grandes entreprises technologiques (OpenAI, Google, etc.) et ne laissera aucune place à la concurrence.
Contrairement à beaucoup de ses pairs, LeCun n'adopte pas une vision alarmiste du futur de l'IA. Malgré le nom, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chat. Lors d'une interview accordée au Financial Times cette semaine, LeCun a déclaré que les inquiétudes selon lesquelles l'IA est une menace existentielle pour l'humanité sont prématurées. Selon lui, il ne sert à rien d'être aussi alarmiste et d'appeler à une réglementation, ce qui risquerait d'avoir de graves conséquences sur l'avenir de l'IA.
LeCun met en effet en garde contre un jeu de dupe et estime qu'une réglementation prématurée de l'IA ne servira qu'à renforcer la domination des grandes entreprises technologiques et à étouffer la concurrence. « Réglementer la recherche et le développement dans le domaine de l'IA est incroyablement contre-productif. Ils veulent en effet s'emparer de la réglementation sous le couvert de la sécurité de l'IA. Les demandes de contrôle de l'IA découlent du sentiment de supériorité de certaines des principales entreprises technologiques, qui affirment qu'elles sont les seules à pouvoir développer l'IA en toute sécurité », a déclaré le responsable de l'IA chez Meta.
Il a ajouté : « je pense que c'est incroyablement arrogant. Et je pense exactement le contraire ». Les commentaires de LeCun laissent entendre qu'ils (Elon Musk, PDG de xAI, Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google DeepMind, etc.) n'appellent pas à une réglementation de l'IA pour le bien de tous, mais seulement pour asseoir leur hégémonie sur la filière de l'IA. LeCun contredit également Geoffrey Hinton, l'un des parrains de l'IA avec qui il partage le prix Turing 2018. Hinton a quitté son poste chez Google afin d'être libre de militer pour la réglementation de l'IA, mais selon LeCun, les craintes actuelles sont absurdes et sans réel fondement.
Le Massachusetts, premier État à légiférer sur les armes à feu sur les robots
Un projet de loi visant à empêcher les robots de porter des armes à feu a été présenté par des législateurs du Massachusetts la semaine dernière. Le texte interdirait aux fabricants, aux vendeurs et aux utilisateurs de doter des robots ou des drones d’armes à feu. Le Massachusetts serait ainsi le premier État à légiférer sur cette question. Toutefois, le projet de loi fait l’objet de vives critiques, car il accorde des exemptions aux forces armées et aux forces de l’ordre, ce qui le rendrait inefficace selon certains observateurs. Le projet de loi est néanmoins soutenu par des entreprises de robotique locales comme Boston Dynamics.
Récemment, des élus du Massachusetts ont décidé de s’attaquer à ce phénomène. La députée Lindsay Sabadosa et le sénateur Michael Moore du Massachusetts ont soumis la semaine dernière un projet de loi qui interdirait aux robots ou aux drones de porter des armes à feu. Il s’agirait de la première loi de ce genre aux États-Unis. Le projet de loi interdirait aussi d’utiliser des robots armés pour intimider ou harceler des personnes, ou pour les contraindre physiquement.
Le Groupe des sept pays industrialisés (G7) adoptera un code de conduite pour les entreprises qui développent des systèmes avancés d'intelligence artificielle, selon un document du G7, alors que les gouvernements cherchent à atténuer les risques et la mauvaise utilisation potentielle de la technologie.
Le code de conduite volontaire constituera une référence pour la manière dont les grands pays régissent l'IA, dans un contexte de préoccupations en matière de protection de la vie privée et de risques pour la sécurité. Les dirigeants du Groupe des sept économies, composé du Canada, de la France, de l'Allemagne, de l'Italie, du Japon, de la Grande-Bretagne et des États-Unis, ainsi que de l'Union européenne, ont lancé le processus en mai lors d'un forum ministériel baptisé « processus d'Hiroshima sur l'IA ».
Le code en 11 points « vise à promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier et fournira des orientations volontaires pour les actions des organisations qui développent les systèmes d'IA les plus avancés, y compris les modèles de base les plus avancés et les systèmes d'IA génératifs », selon le document du G7. Il « vise à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies ».
L’IA n’est pas une menace pour l’humanité, affirme Yann LeCun, le responsable de l’IA chez Meta
Une étude suggère que l'effet placebo pourrait influencer notre perception de l'IA. Cet effet est résistant aux descriptions négatives de l'IA et pourrait impacter sur l'expérience utilisateur. Les créateurs de la technologie peuvent utiliser la psychologie humaine pour améliorer les expériences des utilisateurs ou les manipuler. Les résultats finaux ne dépendent pas seulement de l'intelligence artificielle (IA) et de la qualité de l’IA, mais aussi de la manière dont l’humain réagit à l’IA. Deux études ont examiné dans quelle mesure les attentes d’une personne à l’égard de l’IA influençaient la probabilité qu’elle lui fasse confiance et qu’elle suive ses conseils.
Par définition, un placebo est un procédé thérapeutique n'ayant pas d'efficacité propre ou spécifique mais agissant sur le patient par des mécanismes psychologiques et physiologiques. L'effet placebo de l'IA dans l'interaction homme-machine (IHM), inspiré par la recherche médicale, montre qu'un système d'IA peut apporter des avantages réels et subjectifs, accompagnés de changements dans le comportement et la physiologie.
L’une des deux études a révélé qu’un fort effet placebo contribue à façonner l’opinion que les gens ont d’un outil d’IA particulier. Les participants qui s’apprêtaient à interagir avec un chatbot sur la santé mentale se sont vu dire que le robot était bienveillant, manipulateur ou qu’il n’était ni l’un ni l’autre et qu’il n’avait aucun motif ; après avoir utilisé le chatbot, qui est basé sur le modèle d’IA générative GPT-3 de l’OpenAI, la plupart des personnes ayant été amenées à croire que l’IA était bienveillante ont déclaré qu’elle l’était.
Le professeur Ng n’a pas voulu donner son avis sur le projet de loi du gouvernement travailliste visant à réguler l’IA en fonction des risques, mais il a admis que l’IA avait besoin d’une réglementation. « Je ne suis pas favorable à une absence de réglementation, mais face à la tendance réglementaire de nombreux pays, je préférerais qu’il n’y ait pas de réglementation plutôt qu’une mauvaise réglementation », a-t-il affirmé. « Mais une réglementation judicieuse serait bien plus souhaitable qu’une absence de réglementation », a-t-il ajouté. « Il faut être clair, l’IA a fait des dégâts.
En 2010, un algorithme de trading automatique a provoqué un krach boursier. La réglementation a un rôle à jouer. Mais ce n’est pas parce que la réglementation peut être utile que nous devons accepter une mauvaise réglementation. » Selon lui, parmi les « bonnes » réglementations, il y a la nécessité que les entreprises technologiques soient transparentes, ce qui aurait permis d’éviter le désastre des médias sociaux causé par les géants du numérique au début du siècle, et qui permettra d’éviter les désastres de l’IA causés par les géants du numérique à l’avenir.
Source : YouTube video
Et vous ?
Partagez-vous l'avis d'Andrew Ng, qui estime que les Big Tech mentent sur les dangers de l'IA ?
Selon Andrew Ng, l’idée que l’IA pourrait conduire à l’extinction de l’humanité serait un mensonge pour mettre fin à la concurrence, quel est votre avis ?
Êtes-vous pour ou contre le développement de l'IA ? Quels sont selon vous, les avantages ou les inconvenients ?
Voir aussi :
James Cameron, le réalisateur de Terminator, commente l'essor de l'IA : « je vous avais prévenus en 1984 et vous n'avez pas écouté », il estime que l'IA représente un risque sérieux pour l'humanité
Bill Gates prévient que l'intelligence artificielle est susceptible d'attaquer les humains et ravive les craintes sur une possible future apocalypse résultant de la création de l'IA
Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement