IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

"Il ne suffit pas de suspendre le développement de l'IA. Nous devons tout arrêter"
Déclare Eliezer Yudkowsky, théoricien de la décision et chercheur à la Machine Intelligence Research Institute

Le , par Sandra Coret

18PARTAGES

7  1 
Plus de 1 100 experts en intelligence artificielle, chefs d'entreprise et chercheurs ont signé une pétition appelant les développeurs d'IA à cesser de former des modèles plus puissants que le ChatGPT-4 d'OpenAI pendant au moins six mois.

Parmi ceux qui se sont abstenus de signer la pétition figure Eliezer Yudkowsky, théoricien américain de la décision et chercheur principal à la Machine Intelligence Research Institute. Il travaille sur l'alignement de l'intelligence artificielle générale depuis 2001 et est largement considéré comme l'un des fondateurs de ce domaine.

"Ce moratoire de six mois serait préférable à l'absence de moratoire", écrit M. Yudkowsky dans un article d'opinion publié dans Time Magazine. "Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre".

Yudkowsky pousse la rhétorique à son paroxysme, en écrivant : "Si quelqu'un construit une centrale électrique trop puissante, il n'y a pas de raison de l'arrêter : "Si quelqu'un construit une IA trop puissante, dans les conditions actuelles, je m'attends à ce que chaque membre de l'espèce humaine et toute vie biologique sur Terre meurent peu de temps après"


Eliezer Yudkowsky

Voici un extrait de son article :

La question essentielle n'est pas celle de l'intelligence "compétitive avec l'homme" (comme le dit la lettre ouverte) ; il s'agit de savoir ce qui se passe une fois que l'IA a atteint une intelligence supérieure à celle de l'homme. Les seuils clés ne sont peut-être pas évidents, nous ne pouvons certainement pas calculer à l'avance ce qui se passera à ce moment-là, et il semble actuellement imaginable qu'un laboratoire de recherche franchisse les limites critiques sans s'en apercevoir. [...] Ce n'est pas que vous ne puissiez pas, en principe, survivre à la création d'un objet beaucoup plus intelligent que vous ; c'est que cela nécessiterait de la précision, de la préparation et de nouvelles connaissances scientifiques, et probablement pas des systèmes d'IA composés de gigantesques tableaux impénétrables de nombres fractionnaires. [...]

Il s'est écoulé plus de 60 ans entre le moment où la notion d'intelligence artificielle a été proposée et étudiée pour la première fois et le moment où nous avons atteint les capacités d'aujourd'hui. Résoudre la sécurité d'une intelligence surhumaine - pas une sécurité parfaite, une sécurité dans le sens de "ne pas tuer littéralement tout le monde" - pourrait très raisonnablement prendre au moins la moitié de ce temps. Et le problème avec l'intelligence surhumaine, c'est que si l'on se trompe du premier coup, on ne peut pas apprendre de ses erreurs, car on est mort. L'humanité n'apprend pas de ses erreurs, ne se dépoussière pas et ne recommence pas, comme dans d'autres défis que nous avons relevés au cours de notre histoire, parce que nous sommes tous morts.

Essayer de réussir quelque chose du premier coup est une tâche extraordinaire, que ce soit en science ou en ingénierie. Nous n'avons pas l'approche nécessaire pour y parvenir. Si nous appliquions au domaine naissant de l'intelligence artificielle générale les mêmes normes de rigueur technique que celles qui s'appliquent à un pont destiné à accueillir quelques milliers de voitures, l'ensemble du domaine serait fermé demain. Nous ne sommes pas prêts. Nous ne sommes pas en mesure de nous préparer dans un délai raisonnable. Il n'y a pas de plan. Les progrès en matière de capacités d'IA sont très, très en avance sur les progrès en matière d'alignement de l'IA ou même sur les progrès en matière de compréhension de ce qui se passe à l'intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir.
Eliezer Yudkowsky

Eliezer Yudkowsky est un théoricien de la décision américain qui dirige les recherches de l'Institut de recherche sur l'intelligence artificielle (Machine Intelligence Research Institute). Il travaille sur l'alignement de l'intelligence artificielle générale depuis 2001 et est largement considéré comme l'un des fondateurs de ce domaine.

Sources : Eliezer Yudkowsky, Time Magazine

Et vous ?

Qu'en pensez-vous ?
Pensez-vous ou pas que Eliezer Yudkowsky est vraiment crédible pour affirmer ce genre d'opinion ?
Êtes-vous du même avis que Eliezer Yudkowsky ? Ou au contraire pensez-vous que c'est ridicule de vouloir bloquer les progrès en IA ?

Voir aussi :

La startup Cerebras publie Cerebras-GPT, une famille de modèles linguistiques de type ChatGPT en open-source, les sept modèles GPT-3 établissent des records de précision et d'efficacité de calcul

Un homme se serait suicidé après avoir parlé de ses craintes concernant le changement climatique à un chatbot d'IA, sa veuve affirme que l'IA l'a rendu solitaire avant de le pousser au suicide

Les systèmes d'IA générative comme ChatGPT pourraient avoir un impact sur 300 millions d'emplois à temps plein dans le monde, selon un rapport de Goldman Sachs

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 05/04/2023 à 12:58
Citation Envoyé par OrthodoxWindows Voir le message
Oulà ! C'est graaaaaaave !!
On va tous mourrrriiiiiiiirrrrrrr !!!!!!!
On vit vraiment à l'époque de la panique pour des broutilles, pendant que la démocratie recule partout dans le monde .
Surtout qu'au pire on ampire le problème mais pas grand chose de nouveau sous le soleil.

Je viens de vivre une expérience interressante : un expert nous a fait une présentation sur un sujet dont nous étions au minimum bon connaisseurs.
Il nous invite à poser toutes les questions et à faire toutes les remarques en direct et nous demande régulièrement de valider ce qui vient d'être présenté pour "vérifier qu'on suit".
On est pas d'accord avec tout mais pas de grande révoilution jusqu'à ce qu'au bout de 25 minutes il nous sort une conclusion qui nous semble fausse sans trouver la faille dans la présentation.
Il nous annonce enfin qu'il a fait toute la présentation avec ChatGPT et nous propose de souligner chaque erreur : On est impressionné par le nombre d'erreur (toutes minimes faites), notamment du fait qu'on est passé à coté de la moitié environ.
Il nous explique alors comment il nous a enfumé :
1. Les erreurs sont minimes donc il est compliqué de toutes les voir.
2. Comme c'est un présentation il passait vite sur les imprécisions pour ne pas nous laisser trop de temps d'y réfléchir
3. Comme on validait régulièrement ce qui avait été dit on "efface" le raisonnement pour ne retenir que le résultat (qui devient plus compliqué de remettre en cause parce qu'on se contredirait)
4. Certaines étapes ont été challengées mais je fait d'en discuter et de valider collectivement le résultat écrit permet de recentrer tout le monde sur la "vérité" et de résigner les contradicteurs.

Conclusion : un mec avec du bagout et chatGPT est capable de pousser un groupe d'une dizaine de connaisseurs à remettre en cause leur connaissance. Mais il arrive une limite ou le groupe sait qu'on est en train de le rouler dans la farine sans réussir facilement à trouver le "piège".
La ou ça ne m'inquiète pas tant que ça c'est que si on nous avait laissé prendre plus de recul (temps) on aurait réussi à demonter le raisonnement.
9  0 
Avatar de Nym4x
Membre averti https://www.developpez.com
Le 05/04/2023 à 12:51
on nous a cassé les burnes pendant des années sur le droit d'auteur avec napster, kazaa et compagnie à coup de grande campagne de communication. Mais là quand il s'agit de piller internet afin de faire du profit tout en menaçant des emplois on a aucun politique pour crier à la piraterie...
7  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 01/06/2023 à 16:29
Citation Envoyé par Bill Fassinou Voir le message
Les récentes avancées dans le domaine des grands modèles de langage (LLM) (le type de système d'IA utilisé par le chatbot ChatGPT et d'autres agents conversationnels) ont fait craindre que l'IA ne soit bientôt utilisée à grande échelle pour diffuser des informations erronées et de la propagande, ou qu'elle ne supprime des millions d'emplois de cols blancs, des avocats, des scénaristes, et bien plus encore.
ChatGPT est un outils de propagande, il est orienté politiquement.
Il est progressiste (ou woke comme ils se définissent maintenant)

The nine shocking replies that highlight 'woke' ChatGPT's inherent bias — including struggling to define a woman, praising Democrats but not Republicans and saying nukes are less dangerous than racism

Par contre je pense qu'il est possible qu'un avocat commis d'office qui sait utiliser les outils, sera plus efficace qu'un avocat cher qui n'utilise pas l'IA.
Pour les scénaristes ça va être du niveau de certaines productions Disney/Netflix.

Aucune IA ne va écrire des dialogues dignes de Michel Audiard.

====
Il parait que le robot «Tay» de Microsoft était plus marrant que ChatGPT.
4  1 
Avatar de archqt
Membre émérite https://www.developpez.com
Le 03/04/2023 à 8:27
J'ai vu un documentaire sur une IA nommée Skynet, à mon avis ils ont du le voir aussi, cela devrait aider je pense
3  1 
Avatar de dranduncandane
Membre du Club https://www.developpez.com
Le 06/06/2023 à 4:25
Ce genre d'initiative sont de campagnes de communication. Le but est de faire croire que "on est responsable" et "nos outils sont tellement puissant qu'on doit réglementer". Réglementer selon les désirs des GAFAM qui, bien sur, sont en avance. Et la réglementation, comme d'habitude, va assoir leur position plus que contrer quoi que ce soit. Au final, qu'est ce que vraiment une IA et comment la réglementer. si la réglementation est trop lourde vous allez voir tout le onde se retourner et dire que finalement ChatGPT c'est pas vraiment une IA mais un gros algorithme bête. Ce que c'est aussi.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 14/09/2023 à 17:09
Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous des déclarations d'Elon Musk ? Les risques qu'il évoque sont-ils exagérés ?
C'est marrant, de la part d'un bonhomme qui expérimente ses IA en beta depuis des années sur les routes! Ce type est un troll de génie!

Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous des propos de Bill Gates ? En quoi l'IA peut-elle aider à éradiquer la faim dans le monde ?
Oui, vendre de l'IA à toutes les sauces aidera certainement la faim (et la soif) insatiable de Bill Gates et de ses petits copains ultra-fortunés.

Non, sans rire, qui y croit?
2  0 
Avatar de JeanYvette
Membre averti https://www.developpez.com
Le 03/04/2023 à 16:54
C'est un sujet qui a été souvent ramené sur la table, surtout ces derniers jours avec les manifestations, mais à partir du moment où ce qui a été créé par IA n'est pas identifiable comme venant de l'IA, alors il va y avoir des problèmes, à un moment donné.
Nos lois ou, tout du moins, nos gestions de preuves, devront changer, à partir du moment où on ne saurait dire qu'une image vienne d'IA ou non.
Les outils de propagandes vont aussi pouvoir se servir de ces images si elles ne sont plus refutables car fausse ou "montée".

Cela arrivera aussi sur les textes d'entrainement qui pourront générer des sorties similaires à ce que ferait des journalistes (ou autre) et où, du coup, justifier son travail pourra être plus dur.

Tant qu'il n'y a pas moyen de voir si une source (quelque soit-elle) vient d'IA ou non, alors il va y avoir des souci, leurs envergures, par contre, sera à voir. Donc à mon sens, ne serait-ce que pour ça, oui, une pause serait là bienvenue
1  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 05/04/2023 à 12:00
Céder aux effets de mode, et plus encore ici, apportent toujours plus d'emmerdes que de bienfaits.
3  2 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 02/06/2023 à 11:35
Cette phrase de prévention en provenance des principaux acteurs de l'IA responsables de l'état actuel de la situation ressemble à un contrefeu pour faire comme si actuellement il n'y avait pas de soucis immédiat avec l'IA générative comme la désinformation, la menace sur l'emploi ou les deepfakes. De plus, les dirigeants du monde entier ont des préoccupations bien plus urgentes à gérer comme le réchauffement climatique et la guerre en Ukraine que de se préoccuper d'apprentis sorciers appelant à la responsabilité de la communauté internationale sur leurs activités qui pourraient éventuellement mener à la destruction de l'humanité.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/06/2023 à 12:06
Citation Envoyé par ONTAYG Voir le message
lors d'une simulation.

C'est marrant.

« Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, alors qu’il obtenait des points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif.»
"une personne l'empêchait d'atteindre son objectif" => si il y avait des robots pilotés par l'IA qui étaient ingénieur ils finiraient peut-être par tuer des managers

Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"
1  0