Parmi ceux qui se sont abstenus de signer la pétition figure Eliezer Yudkowsky, théoricien américain de la décision et chercheur principal à la Machine Intelligence Research Institute. Il travaille sur l'alignement de l'intelligence artificielle générale depuis 2001 et est largement considéré comme l'un des fondateurs de ce domaine.
"Ce moratoire de six mois serait préférable à l'absence de moratoire", écrit M. Yudkowsky dans un article d'opinion publié dans Time Magazine. "Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre".
Yudkowsky pousse la rhétorique à son paroxysme, en écrivant : "Si quelqu'un construit une centrale électrique trop puissante, il n'y a pas de raison de l'arrêter : "Si quelqu'un construit une IA trop puissante, dans les conditions actuelles, je m'attends à ce que chaque membre de l'espèce humaine et toute vie biologique sur Terre meurent peu de temps après"
Eliezer Yudkowsky
Voici un extrait de son article :
La question essentielle n'est pas celle de l'intelligence "compétitive avec l'homme" (comme le dit la lettre ouverte) ; il s'agit de savoir ce qui se passe une fois que l'IA a atteint une intelligence supérieure à celle de l'homme. Les seuils clés ne sont peut-être pas évidents, nous ne pouvons certainement pas calculer à l'avance ce qui se passera à ce moment-là, et il semble actuellement imaginable qu'un laboratoire de recherche franchisse les limites critiques sans s'en apercevoir. [...] Ce n'est pas que vous ne puissiez pas, en principe, survivre à la création d'un objet beaucoup plus intelligent que vous ; c'est que cela nécessiterait de la précision, de la préparation et de nouvelles connaissances scientifiques, et probablement pas des systèmes d'IA composés de gigantesques tableaux impénétrables de nombres fractionnaires. [...]
Il s'est écoulé plus de 60 ans entre le moment où la notion d'intelligence artificielle a été proposée et étudiée pour la première fois et le moment où nous avons atteint les capacités d'aujourd'hui. Résoudre la sécurité d'une intelligence surhumaine - pas une sécurité parfaite, une sécurité dans le sens de "ne pas tuer littéralement tout le monde" - pourrait très raisonnablement prendre au moins la moitié de ce temps. Et le problème avec l'intelligence surhumaine, c'est que si l'on se trompe du premier coup, on ne peut pas apprendre de ses erreurs, car on est mort. L'humanité n'apprend pas de ses erreurs, ne se dépoussière pas et ne recommence pas, comme dans d'autres défis que nous avons relevés au cours de notre histoire, parce que nous sommes tous morts.
Essayer de réussir quelque chose du premier coup est une tâche extraordinaire, que ce soit en science ou en ingénierie. Nous n'avons pas l'approche nécessaire pour y parvenir. Si nous appliquions au domaine naissant de l'intelligence artificielle générale les mêmes normes de rigueur technique que celles qui s'appliquent à un pont destiné à accueillir quelques milliers de voitures, l'ensemble du domaine serait fermé demain. Nous ne sommes pas prêts. Nous ne sommes pas en mesure de nous préparer dans un délai raisonnable. Il n'y a pas de plan. Les progrès en matière de capacités d'IA sont très, très en avance sur les progrès en matière d'alignement de l'IA ou même sur les progrès en matière de compréhension de ce qui se passe à l'intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir.
Il s'est écoulé plus de 60 ans entre le moment où la notion d'intelligence artificielle a été proposée et étudiée pour la première fois et le moment où nous avons atteint les capacités d'aujourd'hui. Résoudre la sécurité d'une intelligence surhumaine - pas une sécurité parfaite, une sécurité dans le sens de "ne pas tuer littéralement tout le monde" - pourrait très raisonnablement prendre au moins la moitié de ce temps. Et le problème avec l'intelligence surhumaine, c'est que si l'on se trompe du premier coup, on ne peut pas apprendre de ses erreurs, car on est mort. L'humanité n'apprend pas de ses erreurs, ne se dépoussière pas et ne recommence pas, comme dans d'autres défis que nous avons relevés au cours de notre histoire, parce que nous sommes tous morts.
Essayer de réussir quelque chose du premier coup est une tâche extraordinaire, que ce soit en science ou en ingénierie. Nous n'avons pas l'approche nécessaire pour y parvenir. Si nous appliquions au domaine naissant de l'intelligence artificielle générale les mêmes normes de rigueur technique que celles qui s'appliquent à un pont destiné à accueillir quelques milliers de voitures, l'ensemble du domaine serait fermé demain. Nous ne sommes pas prêts. Nous ne sommes pas en mesure de nous préparer dans un délai raisonnable. Il n'y a pas de plan. Les progrès en matière de capacités d'IA sont très, très en avance sur les progrès en matière d'alignement de l'IA ou même sur les progrès en matière de compréhension de ce qui se passe à l'intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir.
Eliezer Yudkowsky est un théoricien de la décision américain qui dirige les recherches de l'Institut de recherche sur l'intelligence artificielle (Machine Intelligence Research Institute). Il travaille sur l'alignement de l'intelligence artificielle générale depuis 2001 et est largement considéré comme l'un des fondateurs de ce domaine.
Sources : Eliezer Yudkowsky, Time Magazine
Et vous ?
Qu'en pensez-vous ?
Pensez-vous ou pas que Eliezer Yudkowsky est vraiment crédible pour affirmer ce genre d'opinion ?
Êtes-vous du même avis que Eliezer Yudkowsky ? Ou au contraire pensez-vous que c'est ridicule de vouloir bloquer les progrès en IA ?
Voir aussi :
La startup Cerebras publie Cerebras-GPT, une famille de modèles linguistiques de type ChatGPT en open-source, les sept modèles GPT-3 établissent des records de précision et d'efficacité de calcul
Un homme se serait suicidé après avoir parlé de ses craintes concernant le changement climatique à un chatbot d'IA, sa veuve affirme que l'IA l'a rendu solitaire avant de le pousser au suicide
Les systèmes d'IA générative comme ChatGPT pourraient avoir un impact sur 300 millions d'emplois à temps plein dans le monde, selon un rapport de Goldman Sachs