Lors d'une récente apparition sur le podcast Bankless, Paul Christiano a indiqué qu'il prenait très au sérieux la tendance croissante de l'IA générative et que le monde devrait en faire autant, en raison du nombre considérable de risques qui y sont liés.
Il y a 10 à 20 % de chances que le monde de l'IA prenne le dessus et que la plupart des humains meurent, a-t-il expliqué.
Christiano, qui fait partie du célèbre Alignment Research Center, une organisation à but non lucratif, a ajouté qu'il faisait partie de l'équipe chargée des modèles de langage pour OpenAI. Aujourd'hui, il est interrogé sur la probabilité d'une véritable entreprise de destruction selon Eliezer Yudkowsky.
Il était intéressant de voir comment le chercheur continuait à mentionner en termes audacieux qu'une telle technologie à la mode pourrait être un véritable fléau pour le monde entier, et cet avertissement n'est pas nouveau. Il est lancé depuis près de vingt ans.
Christiano a indiqué que son point de vue différait de celui de nombreuses autres personnes en ce qui concerne la vitesse à laquelle la technologie pourrait se développer. Il se trouve qu'elle se trouve dans cette phase de transformation très rapide dont d'autres continuent à parler.
M. Christiano a également expliqué plus en détail qu'il imaginait une transition d'environ un an par rapport à ce que nous voyons aujourd'hui dans les systèmes d'IA, et que cela pourrait devenir une énorme affaire. Il a ajouté que cette accélération du changement est suivie d'une accélération encore plus grande et qu'après avoir vu cela, de nombreuses choses peuvent sembler être des problèmes d'IA, car elles se produisent peu de temps après la mise en place de la technologie d'IA.
Dans l'ensemble, on peut s'approcher d'une probabilité de catastrophe de 50 %, quelques instants après qu'un système d'IA ait atteint le niveau de compatibilité avec l'être humain, a affirmé le chercheur.
Mais n'oubliez pas que ce n'est pas quelque chose de nouveau que nous entendons de la part de Christiano. Il se joint à un grand nombre de voix qui ont été troublées par les développements réalisés dans le domaine de l'IA. Récemment, un groupe d'experts du domaine de l'IA a proposé des signatures pour interrompre temporairement la formation des modèles et des systèmes d'IA.
Ils ont estimé qu'un ralentissement de six mois dans le développement de l'IA était la bonne solution, mais aucune information n'a encore été donnée sur la manière dont le monde s'y adapterait.
Sources : Paul Christiano, ancien chercheur chez OpenAI ; Vidéo YouTube de l'intervention de M. Christiano sur le podcast Bankless (https://youtu.be/GyFkWb903aU)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des affirmations de M. Christiano ? Trouvez-vous que son avis est pertinent et crédible ou plutôt partisan ?
Partagez-vous les préoccupations de M. Christiano concernant le développement rapide des systèmes d'IA et ses impacts potentiels sur la société ?
Voir aussi
« L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse
Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir
« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA
« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale
Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui