Steven Adler a annoncé dans un récent billet publié sur X (ex-Twitter) qu'il a quitté son poste de chercheur en sécurité de l'IA chez OpenAI à la fin de l'année dernière. Il a également profité de l'occasion pour lancer un avertissement concernant la course effrénée de l'industrie vers l'intelligence artificielle générale (AGI). Il a qualifié la course mondiale vers l'AGI de « pari très risqué, avec d'énormes inconvénients pour l'humanité ». Il affirme que les entreprises d'IA, y compris OpenAI, ne savent pas comment aligner l'IA sur les valeurs humaines, ce qui fait peser une menace existentielle sur l'humanité. Il appelle à une réflexion sur le sujet.Un ancien chercheur d'OpenAI alerte sur les risques liés à la création d'une AGI
Steven Adler, chercheur en sécurité des systèmes d'IA, a quitté OpenAI à la fin de l'année dernière après quatre années passées au sein de l'entreprise. Il a rendu sa décision publique dans un billet publié sur X le 27 janvier 2025. D'après son profil LinkedIn, Steven Adler était responsable de la sécurité de l'IA chez OpenAI et dirigeait la recherche et les programmes liés à la sécurité pour les lancements de produits et les systèmes d'IA spéculatifs à long terme.
Il est également cité comme auteur de plusieurs articles de blogue d'OpenAI. Dans son billet sur X, Steven Adler est brièvement revenu sur son passage à OpenAI, mais a également exprimé ses inquiétudes quant à l'évolution rapide des systèmes d'IA. Il a qualifié son passage chez OpenAI de « chevauchée sauvage avec de nombreux chapitres ». Le chercheur a également déclaré que de nombreuses parties de son passage chez OpenAI lui manqueraient.
Some personal news: After four years working on safety across @openai, I left in mid-November. It was a wild ride with lots of chapters - dangerous capability evals, agent safety/control, AGI and online identity, etc. - and I'll miss many parts of it.
— Steven Adler (@sjgadler) January 27, 2025
En ce qui concernant l'évolution rapide des systèmes d'IA, Steven Adler lance un avertissement : « une course à l'AGI est un pari très risqué, avec d'énormes inconvénients ». En outre, Steven Adler a déclaré qu'il est personnellement « assez terrifié par le rythme » de développement de l'IA :
Stuart Russell explique notamment : « même les chefs d'entreprises qui s'engagent dans la course ont déclaré que le vainqueur a une forte probabilité de provoquer l'extinction de l'humanité, car nous n'avons aucune idée de la manière de contrôler des systèmes plus intelligents que nous ».
Geoffrey Hinton, l'un des parrains de l'IA, reste convaincu que l'IA représente une menace existentielle pour l'humanité. Il a déclaré lors d'une récente sortie que l'IA rendrait la société « de plus en plus mauvaise » en creusant l'écart de richesse entre les individus les plus riches et les plus pauvres.
Il a ajouté qu'une superintelligence, ou une IA dont les capacités cognitives dépassent celles des humains dans tous les domaines, apparaîtra d'ici cinq à vingt ans. Selon lui, l'écart de richesse risque d'exacerber les inégalités et les tensions, ce qui offrirait un terrain fertile pour le fascisme et la société pourrait empirer.
OpenAI a perdu un nombre impressionnant de chercheurs ces dernières années
Ce n'est pas la première fois qu'OpenAI est confrontée à des questions relatives à son approche de la sécurité de l'IA. Le laboratoire d'IA a été mêlé à plusieurs scandales publics qui semblaient découler de désaccords internes sur la sécurité de l'IA, y compris un incident à la fin de 2023 qui a remis en cause la survie même de l'entreprise. En effet, le PDG d'OpenAI, Sam Altman, avait été licencié par l'ancien conseil d'administration en raison de « désaccords ».
Sam Altman a été réintégré dans son rôle cinq jours plus tard sous la pression des employés et des investisseurs, mais les questions relatives à...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.