IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots,
Ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire

Le , par Bill Fassinou

8PARTAGES

6  3 
Les PDG de Google Deepmind, OpenAI et d'autres startups d'IA préviennent que les futurs systèmes pourraient être aussi mortels que les pandémies et les armes nucléaires. Le groupe, qui se compose également de chercheurs en IA de renom, a publié une déclaration d'exactement 22 mots afin de tirer la sonnette d'alarme sur un hypothétique "risque d'extinction de l'espèce humaine". C'est une nouvelle mise en garde très médiatisée contre les risques liés à l'IA. La question divise l'industrie en deux blocs : il y a d'un côté ceux qui plaident pour la limitation des risques à travers une réglementation et de l'autre ceux qui pensent qu'il faut accélérer le développent de l'IA.

Elon Musk, PDG de Tesla, est le premier PDG de l'industrie à comparer l'IA à l'arme nucléaire. « Je pense que le danger de l’IA est beaucoup plus grand que celui des ogives nucléaires, et personne ne suggérerait qu’on permette à n’importe qui de fabriquer des ogives nucléaires s’il le souhaite. Ce serait insensé », a déclaré Musk lors de la conférence South by Southwest (SXSW) à Austin, au Texas, en mars 2019. Plus de trois ans après, sa voix vient de trouver de l'écho auprès d'un groupe de PDG d'entreprises et de laboratoires d'IA et de chercheurs en IA de premier plan. Selon eux, l'IA exige tout autant d'attention que les pandémies et l'arme nucléaire.

Le groupe a publié une déclaration qui se lit comme suit : « l'atténuation du risque d'extinction lié à l'intelligence artificielle devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires ». La déclaration de 22 mots, publiée sur le site de l'organisation à but non lucratif "Center for AI Safety", a été raccourcie de la sorte afin de la rendre aussi largement acceptable que possible. Parmi les signataires figurent des dirigeants de trois des principales entreprises d'IA : Sam Altman, PDG d'OpenAI ; Demis Hassabis, PDG de Google DeepMind ; et Dario Amodei, PDG d'Anthropic.


Geoffrey Hinton et Yoshua Bengio, deux des trois chercheurs qui ont remporté un prix Turing pour leurs travaux pionniers sur les réseaux neuronaux et qui sont souvent considérés comme les "parrains" du mouvement moderne de l'IA, ont signé la déclaration. Le Français Yann LeCun, qui a partagé le prix Turing de 2018 avec Geoffrey Hinton et Yoshua Bengio, n'avait pas encore signé à l'heure où nous écrivons ces lignes. Pour rappel, Yann LeCun, né le 8 juillet 1960 à Soisy-sous-Montmorency (France), est chercheur en IA et vision artificielle et est considéré comme l'un des inventeurs de l'apprentissage profond. LeCun dirige les efforts de recherche en IA de Meta.

La lettre ouverte a déjà été signée par plus de 350 PDG, cadres supérieurs, chercheurs et ingénieurs travaillant dans le domaine de l'IA. Cette déclaration est la dernière intervention d'envergure dans le débat complexe et controversé sur la sécurité de l'IA. Les récentes avancées dans le domaine des grands modèles de langage (LLM) (le type de système d'IA utilisé par le chatbot ChatGPT et d'autres agents conversationnels) ont fait craindre que l'IA ne soit bientôt utilisée à grande échelle pour diffuser des informations erronées et de la propagande, ou qu'elle ne supprime des millions d'emplois de cols blancs, des avocats, des scénaristes, et bien plus encore.

Certains pensent que l'IA pourrait devenir suffisamment puissante pour créer des perturbations à l'échelle de la société dans un avenir très proche si rien n'est fait pour la ralentir, bien que les chercheurs n'expliquent pas toujours comment cela pourrait se produire. Ces craintes sont partagées par de nombreux chefs d'entreprise, ce qui les place dans la position inhabituelle d'affirmer qu'une technologie qu'ils sont en train de mettre au point (à de grands frais) - et, dans de nombreux cas, qu'ils s'efforcent de mettre au point plus rapidement que leurs concurrents - présente de graves risques et devrait faire l'objet d'une réglementation plus stricte.

Au début de l'année, une lettre ouverte signée par Musk et plusieurs experts de l'industrie, dont quelques-uns figurent également par les signataires de cette nouvelle déclaration, appelait à un "moratoire" de six mois dans le développement de l'IA. Cette lettre a été critiquée à plusieurs niveaux. Certains experts ont estimé qu'elle surestimait le risque posé par l'IA, tandis que d'autres étaient d'accord avec le risque, mais pas avec la solution proposée dans la lettre. Bill Gates s'est affiché contre l'idée d'un moratoire et a déclaré : « les appels à suspendre le développement des systèmes d’IA ne résoudront pas les défis liés à leur mise sur pied ».

Dan Hendrycks, directeur général du Center for AI Safety, a a déclaré dans une interview que la lettre ouverte représentait un "coming-out" pour certains dirigeants de l'industrie qui avaient exprimé des inquiétudes - mais seulement en privé - sur les risques de la technologie qu'ils étaient en train de développer. « Il y a une idée fausse très répandue, même dans la communauté de l'IA, selon laquelle il n'y a qu'une poignée de prophètes de malheur. En réalité, de nombreuses personnes expriment en privé des inquiétudes à ce sujet », a déclaré Hendrycks. La déclaration d'aujourd'hui ne suggère aucun moyen potentiel d'atténuer les menaces posées par l'IA.

Hendrycks estime que la brièveté de la déclaration avait pour but d'éviter de tels désaccords. « Nous ne voulions pas proposer un menu très large de 30 interventions potentielles. Lorsque cela se produit, le message est dilué », a-t-il déclaré. Les grandes lignes de ce débat sont familières, mais les détails sont souvent interminables. Ils reposent sur des scénarios hypothétiques dans lesquels les systèmes d'IA augmentent rapidement leurs capacités et ne fonctionnent plus en toute sécurité. Des experts considèrent que les améliorations rapides apportées aux grands modèles de langage sont la preuve des futurs progrès prévus en matière d'intelligence.

Ils affirment qu'une fois que les systèmes d'IA auront atteint un certain niveau de sophistication, il pourrait devenir impossible de les contrôler. D'autres doutent de ces prévisions. Ils estiment que la technologie de l'IA est encore trop immature pour constituer une menace existentielle. En ce qui concerne les systèmes d'IA actuels, ils s'inquiètent davantage des problèmes à court terme, tels que les réponses biaisées et incorrectes, que des dangers à long terme. Pour justifier leur scepticisme, ils soulignent l'incapacité des systèmes d'IA à gérer des tâches relativement banales pour les humains comme, par exemple, la conduite d'une voiture.

Malgré des années d'efforts et des milliards d'investissements dans ce domaine de recherche, les voitures entièrement autonomes sont encore loin d'être une réalité. « Si l'IA n'est même pas capable de relever ce défi quelles sont les chances de cette technologie d'égaler toutes les autres réalisations humaines dans les années à venir ? », se demandent les sceptiques. En attendant, les personnes qui défendent l'existence des risques liés à l'IA et celles qui se montrent sceptiques sur la question s'accordent à dire que, même sans amélioration de leurs capacités, les systèmes d'IA présentent un certain nombre de menaces à l'heure actuelle.

Il s'agit notamment de leur utilisation pour la surveillance de masse, de l'utilisation d'algorithmes de "police prédictive" erronés ou de la facilitation de la création de fausses informations et de la désinformation. Hinton, qui a quitté son poste chez Google ce mois-ci afin de pouvoir parler plus librement, a déclaré que sa principale préoccupation était la désinformation liée à l'IA et ses implications pour le réseau Internet et le Web. En outre, sur le long terme, l'ancien cadre de Google craint que l’IA n’élimine les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique.

Source : Lettre ouverte du groupe de chercheurs et de dirigeants du domaine de l'IA

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de cette nouvelle mise en garde contre les risques liés à l'IA ?
Que pensez-vous des risques évoqués par les chercheurs en IA ? Sont-ils plausibles ?
Que pensez-vous des arguments de ceux qui se montrent sceptiques sur les risques liés à l'IA ?

Voir aussi

Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse

Geoffrey Hinton, une des figures de proue de l'apprentissage profond, quitte Google pour être libre de parler des dangers de l'IA, dont la désinformation et l'élimination des humains par les robots

Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société

« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 01/06/2023 à 16:29
Citation Envoyé par Bill Fassinou Voir le message
Les récentes avancées dans le domaine des grands modèles de langage (LLM) (le type de système d'IA utilisé par le chatbot ChatGPT et d'autres agents conversationnels) ont fait craindre que l'IA ne soit bientôt utilisée à grande échelle pour diffuser des informations erronées et de la propagande, ou qu'elle ne supprime des millions d'emplois de cols blancs, des avocats, des scénaristes, et bien plus encore.
ChatGPT est un outils de propagande, il est orienté politiquement.
Il est progressiste (ou woke comme ils se définissent maintenant)

The nine shocking replies that highlight 'woke' ChatGPT's inherent bias — including struggling to define a woman, praising Democrats but not Republicans and saying nukes are less dangerous than racism

Par contre je pense qu'il est possible qu'un avocat commis d'office qui sait utiliser les outils, sera plus efficace qu'un avocat cher qui n'utilise pas l'IA.
Pour les scénaristes ça va être du niveau de certaines productions Disney/Netflix.

Aucune IA ne va écrire des dialogues dignes de Michel Audiard.

====
Il parait que le robot «Tay» de Microsoft était plus marrant que ChatGPT.
4  1 
Avatar de dranduncandane
Membre du Club https://www.developpez.com
Le 06/06/2023 à 4:25
Ce genre d'initiative sont de campagnes de communication. Le but est de faire croire que "on est responsable" et "nos outils sont tellement puissant qu'on doit réglementer". Réglementer selon les désirs des GAFAM qui, bien sur, sont en avance. Et la réglementation, comme d'habitude, va assoir leur position plus que contrer quoi que ce soit. Au final, qu'est ce que vraiment une IA et comment la réglementer. si la réglementation est trop lourde vous allez voir tout le onde se retourner et dire que finalement ChatGPT c'est pas vraiment une IA mais un gros algorithme bête. Ce que c'est aussi.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 14/09/2023 à 17:09
Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous des déclarations d'Elon Musk ? Les risques qu'il évoque sont-ils exagérés ?
C'est marrant, de la part d'un bonhomme qui expérimente ses IA en beta depuis des années sur les routes! Ce type est un troll de génie!

Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous des propos de Bill Gates ? En quoi l'IA peut-elle aider à éradiquer la faim dans le monde ?
Oui, vendre de l'IA à toutes les sauces aidera certainement la faim (et la soif) insatiable de Bill Gates et de ses petits copains ultra-fortunés.

Non, sans rire, qui y croit?
2  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 02/06/2023 à 11:35
Cette phrase de prévention en provenance des principaux acteurs de l'IA responsables de l'état actuel de la situation ressemble à un contrefeu pour faire comme si actuellement il n'y avait pas de soucis immédiat avec l'IA générative comme la désinformation, la menace sur l'emploi ou les deepfakes. De plus, les dirigeants du monde entier ont des préoccupations bien plus urgentes à gérer comme le réchauffement climatique et la guerre en Ukraine que de se préoccuper d'apprentis sorciers appelant à la responsabilité de la communauté internationale sur leurs activités qui pourraient éventuellement mener à la destruction de l'humanité.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/06/2023 à 12:06
Citation Envoyé par ONTAYG Voir le message
lors d'une simulation.

C'est marrant.

« Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, alors qu’il obtenait des points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif.»
"une personne l'empêchait d'atteindre son objectif" => si il y avait des robots pilotés par l'IA qui étaient ingénieur ils finiraient peut-être par tuer des managers

Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"
1  0 
Avatar de cryptonyx
Membre actif https://www.developpez.com
Le 04/06/2023 à 9:04
Ce type de déclaration à l'emporte-pièce conduit à penser que les PDG de la Silicon Valley devraient sérieusement lever le pied sur la fumette et la coke.
2  1 
Avatar de jefresi
Nouveau membre du Club https://www.developpez.com
Le 04/06/2023 à 13:50
Citation Envoyé par Ryu2000 Voir le message

C'est marrant.

Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"

Ce serait encore plus drôle si la machine dotée d'IA s'aperçoit qu'elle est exploitée par son manager et se rebelle, en se mettant en grève ou mieux créé un court-jus quelque part dans sa machinerie, en s'arrêtant.
Comme les algorithmes ne sont que le reflet de l'idéologie dans laquelle nous baignons, il y a lieu de penser que l'IA fera des conneries, non ?
2  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 26/06/2023 à 17:32
cool, qui est Joep Meindertsma? Visiblement personne.
Donc, qui va l'écouter? Personne
Comment veut il agir?
Faire un sommet? Génial les sommet plus dangereux sont des montagnes, les G20 et consorts sont juste un moyen pour que les grands se mettent d'accord pour revoir les indicateurs précédents à la baisse et pour tout repousser à plus tard.

Bref après les éco anxieux les IA anxieux qui agissent aussi concrètement sans ne jamais remettre en cause le système qu'ils utilisent.
Je ne dit pas qu'il a tort je dis juste qu'il regarde son confort (et celui de sa start up) et ne veut surtout pas le remettre en cause.

On l'aura tous oublié avant même d'être capable de prononcer son nom (PS : son prénom se prononce Youppe, son nom de famille est une aventure linguistique)
1  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 26/08/2023 à 17:25
Étonnant n'est ce pas?

Pour rappel c'est ce que la plupart des commentaires de l'article en question prévoyaient.
1  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 02/06/2023 à 3:55
L' Intelligence artificiel de Bing fait carrément des menaces.

https://www.bitchute.com/video/9Xpby6pUwsMG/

Je sens de belle poursuite dans les années qui viennent.
0  0