Les PDG de Google Deepmind, OpenAI et d'autres startups d'IA préviennent que les futurs systèmes pourraient être aussi mortels que les pandémies et les armes nucléaires. Le groupe, qui se compose également de chercheurs en IA de renom, a publié une déclaration d'exactement 22 mots afin de tirer la sonnette d'alarme sur un hypothétique "risque d'extinction de l'espèce humaine". C'est une nouvelle mise en garde très médiatisée contre les risques liés à l'IA. La question divise l'industrie en deux blocs : il y a d'un côté ceux qui plaident pour la limitation des risques à travers une réglementation et de l'autre ceux qui pensent qu'il faut accélérer le développent de l'IA.
Elon Musk, PDG de Tesla, est le premier PDG de l'industrie à comparer l'IA à l'arme nucléaire. « Je pense que le danger de l’IA est beaucoup plus grand que celui des ogives nucléaires, et personne ne suggérerait qu’on permette à n’importe qui de fabriquer des ogives nucléaires s’il le souhaite. Ce serait insensé », a déclaré Musk lors de la conférence South by Southwest (SXSW) à Austin, au Texas, en mars 2019. Plus de trois ans après, sa voix vient de trouver de l'écho auprès d'un groupe de PDG d'entreprises et de laboratoires d'IA et de chercheurs en IA de premier plan. Selon eux, l'IA exige tout autant d'attention que les pandémies et l'arme nucléaire.
Le groupe a publié une déclaration qui se lit comme suit : « l'atténuation du risque d'extinction lié à l'intelligence artificielle devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires ». La déclaration de 22 mots, publiée sur le site de l'organisation à but non lucratif "Center for AI Safety", a été raccourcie de la sorte afin de la rendre aussi largement acceptable que possible. Parmi les signataires figurent des dirigeants de trois des principales entreprises d'IA : Sam Altman, PDG d'OpenAI ; Demis Hassabis, PDG de Google DeepMind ; et Dario Amodei, PDG d'Anthropic.
Geoffrey Hinton et Yoshua Bengio, deux des trois chercheurs qui ont remporté un prix Turing pour leurs travaux pionniers sur les réseaux neuronaux et qui sont souvent considérés comme les "parrains" du mouvement moderne de l'IA, ont signé la déclaration. Le Français Yann LeCun, qui a partagé le prix Turing de 2018 avec Geoffrey Hinton et Yoshua Bengio, n'avait pas encore signé à l'heure où nous écrivons ces lignes. Pour rappel, Yann LeCun, né le 8 juillet 1960 à Soisy-sous-Montmorency (France), est chercheur en IA et vision artificielle et est considéré comme l'un des inventeurs de l'apprentissage profond. LeCun dirige les efforts de recherche en IA de Meta.
La lettre ouverte a déjà été signée par plus de 350 PDG, cadres supérieurs, chercheurs et ingénieurs travaillant dans le domaine de l'IA. Cette déclaration est la dernière intervention d'envergure dans le débat complexe et controversé sur la sécurité de l'IA. Les récentes avancées dans le domaine des grands modèles de langage (LLM) (le type de système d'IA utilisé par le chatbot ChatGPT et d'autres agents conversationnels) ont fait craindre que l'IA ne soit bientôt utilisée à grande échelle pour diffuser des informations erronées et de la propagande, ou qu'elle ne supprime des millions d'emplois de cols blancs, des avocats, des scénaristes, et bien plus encore.
Certains pensent que l'IA pourrait devenir suffisamment puissante pour créer des perturbations à l'échelle de la société dans un avenir très proche si rien n'est fait pour la ralentir, bien que les chercheurs n'expliquent pas toujours comment cela pourrait se produire. Ces craintes sont partagées par de nombreux chefs d'entreprise, ce qui les place dans la position inhabituelle d'affirmer qu'une technologie qu'ils sont en train de mettre au point (à de grands frais) - et, dans de nombreux cas, qu'ils s'efforcent de mettre au point plus rapidement que leurs concurrents - présente de graves risques et devrait faire l'objet d'une réglementation plus stricte.
Au début de l'année, une lettre ouverte signée par Musk et plusieurs experts de l'industrie, dont quelques-uns figurent également par les signataires de cette nouvelle déclaration, appelait à un "moratoire" de six mois dans le développement de l'IA. Cette lettre a été critiquée à plusieurs niveaux. Certains experts ont estimé qu'elle surestimait le risque posé par l'IA, tandis que d'autres étaient d'accord avec le risque, mais pas avec la solution proposée dans la lettre. Bill Gates s'est affiché contre l'idée d'un moratoire et a déclaré : « les appels à suspendre le développement des systèmes d’IA ne résoudront pas les défis liés à leur mise sur pied ».
Dan Hendrycks, directeur général du Center for AI Safety, a a déclaré dans une interview que la lettre ouverte représentait un "coming-out" pour certains dirigeants de l'industrie qui avaient exprimé des inquiétudes - mais seulement en privé - sur les risques de la technologie qu'ils étaient en train de développer. « Il y a une idée fausse très répandue, même dans la communauté de l'IA, selon laquelle il n'y a qu'une poignée de prophètes de malheur. En réalité, de nombreuses personnes expriment en privé des inquiétudes à ce sujet », a déclaré Hendrycks. La déclaration d'aujourd'hui ne suggère aucun moyen potentiel d'atténuer les menaces posées par l'IA.
Hendrycks estime que la brièveté de la déclaration avait pour but d'éviter de tels désaccords. « Nous ne voulions pas proposer un menu très large de 30 interventions potentielles. Lorsque cela se produit, le message est dilué », a-t-il déclaré. Les grandes lignes de ce débat sont familières, mais les détails sont souvent interminables. Ils reposent sur des scénarios hypothétiques dans lesquels les systèmes d'IA augmentent rapidement leurs capacités et ne fonctionnent plus en toute sécurité. Des experts considèrent que les améliorations rapides apportées aux grands modèles de langage sont la preuve des futurs progrès prévus en matière d'intelligence.
Ils affirment qu'une fois que les systèmes d'IA auront atteint un certain niveau de sophistication, il pourrait devenir impossible de les contrôler. D'autres doutent de ces prévisions. Ils estiment que la technologie de l'IA est encore trop immature pour constituer une menace existentielle. En ce qui concerne les systèmes d'IA actuels, ils s'inquiètent davantage des problèmes à court terme, tels que les réponses biaisées et incorrectes, que des dangers à long terme. Pour justifier leur scepticisme, ils soulignent l'incapacité des systèmes d'IA à gérer des tâches relativement banales pour les humains comme, par exemple, la conduite d'une voiture.
Malgré des années d'efforts et des milliards d'investissements dans ce domaine de recherche, les voitures entièrement autonomes sont encore loin d'être une réalité. « Si l'IA n'est même pas capable de relever ce défi quelles sont les chances de cette technologie d'égaler toutes les autres réalisations humaines dans les années à venir ? », se demandent les sceptiques. En attendant, les personnes qui défendent l'existence des risques liés à l'IA et celles qui se montrent sceptiques sur la question s'accordent à dire que, même sans amélioration de leurs capacités, les systèmes d'IA présentent un certain nombre de menaces à l'heure actuelle.
Il s'agit notamment de leur utilisation pour la surveillance de masse, de l'utilisation d'algorithmes de "police prédictive" erronés ou de la facilitation de la création de fausses informations et de la désinformation. Hinton, qui a quitté son poste chez Google ce mois-ci afin de pouvoir parler plus librement, a déclaré que sa principale préoccupation était la désinformation liée à l'IA et ses implications pour le réseau Internet et le Web. En outre, sur le long terme, l'ancien cadre de Google craint que l’IA n’élimine les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique.
Source : Lettre ouverte du groupe de chercheurs et de dirigeants du domaine de l'IA
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de cette nouvelle mise en garde contre les risques liés à l'IA ?
Que pensez-vous des risques évoqués par les chercheurs en IA ? Sont-ils plausibles ?
Que pensez-vous des arguments de ceux qui se montrent sceptiques sur les risques liés à l'IA ?
Voir aussi
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
Geoffrey Hinton, une des figures de proue de l'apprentissage profond, quitte Google pour être libre de parler des dangers de l'IA, dont la désinformation et l'élimination des humains par les robots
Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société
« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale
Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots,
Ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire
Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots,
Ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !