OpenAI recherche un nouveau collaborateur pour l'aider à luter contre les dangers croissants de l'IA. L'entreprise est prête à dépenser plus d'un demi-million de dollars pour pourvoir le poste de « responsable de la préparation ». Celui-ci aidera à réduire les risques liés à cette technologie, notamment en matière de santé mentale des utilisateurs et de cybersécurité. Selon l'offre d'emploi, le poste sera rémunéré à 555 000 dollars par an, plus des actions. Le PDG Sam Altman a averti que « ce travail sera stressant ». L'offre intervient alors que les entreprises s'inquiètent de plus en plus des risques liés à l'IA pour leurs activités et leur réputation.Demis Hassabis, cofondateur et PDG de Google DeepMind, a mis en garde ce mois-ci contre les risques liés à l'IA, notamment celui de « dérailler d'une manière qui nuise à l'humanité ». Yoshua Bengio, chercheur en IA et ancien cadre de Google, a récemment déclaré : « un sandwich est plus réglementé que l'IA. » Il en résulte que les entreprises d'IA s'autorégulent en grande partie. Il est considéré comme l'un des pionniers de l'apprentissage profond.
Une analyse publiée en novembre par AlphaSense a révélé que durant les onze premiers mois de l’année, 418 entreprises valorisées à au moins un milliard de dollars ont signalé des atteintes à leur réputation en lien avec des risques associés à l’IA. Ces risques comprennent les ensembles de données d'IA qui présentent des informations biaisées ou compromettent la sécurité. OpenAI recherche un collaborateur pouvant l'aider à faire face à ces risques.
L'entreprise a lancé le recrutement d'un « responsable de la préparation ». « Ce sera un travail stressant, et vous serez plongé dans le grand bain presque immédiatement », a écrit le PDG Sam Altman dans un message sur X (ex-Twitter) annonçant l'ouverture de ce nouveau poste, qu'il décrit comme « essentiel ».
Le candidat retenu sera chargé d'évaluer et d'atténuer les menaces émergentes, ainsi que de « suivre et de se préparer aux capacités de pointe qui créent de nouveaux risques de dommages graves ». Certains anciens dirigeants occupant ce poste n'y sont restés que peu de temps. Cette offre d'emploi intervient dans un contexte d'alertes lancées par des acteurs de l'industrie de l'IA sur les risques liés à cette technologie de plus en plus performante.
OpenAI fait marche arrière après avoir dissout son équipe de sécurité
Fondée en 2015 en tant qu'organisation à but non lucratif dans le but d'utiliser l'IA pour améliorer l'humanité, OpenAI a, selon certains de ses anciens dirigeants, eu du mal à donner la priorité à son engagement en faveur d'un développement technologique sûr. Cet état de choses a provoqué des dissensions au sein des équipes de l'entreprise, entraînant de nombreux départs, dont la démission de plusieurs membres fondateurs ces dernières années.
À titre d'exemple, l'ancien vice-président de la recherche de l'entreprise, Dario Amodei, ainsi que sa sœur Daniela Amodei et plusieurs autres chercheurs, ont quitté OpenAI en 2020, en partie parce qu'ils craignaient que l'entreprise privilégie le succès commercial au détriment de la sécurité.
Ilya Sutskever, cofondateur d'OpenAI et ancien directeur scientifique, a quitté l'entreprise. Il est très craintif des risques liés à l'IA et a été l'un des principaux artisans de la brève éviction de Salm Altman du poste de PDG d'OpenAI en novembre 2023. Les raisons de son éviction ne sont pas claires, mais selon la rumeur, Altman a été éjecté par des personnes préoccupées par le penchant du PDG à lancer de nouveaux produits au détriment de la sécurité.
Jan Leike, chercheur de longue date d'OpenAI, qui codirigeait l'équipe Superalignment a annoncé son départ deux jours après la démission d'Ilya Sutskever. L'entreprise a ensuite annoncé aux employés restants de l'équipe qu'elle était dissoute et qu'ils étaient réaffectés à d'autres fonctions au sein de l'entreprise.
En plus des Jan Leike et Ilya Sutskever, OpenAI a également perdu de nombreux autres chercheurs en sécurité de l'IA. L'un d'entre eux, Daniel Kokotajilo, a déclaré lors de son départ qu'il avait progressivement perdu confiance dans la direction d'OpenAI et dans sa capacité à gérer la superintelligence de manière responsable, ce qui l'a poussé à démissionner. La recherche effrénée du profit par OpenAI a exposé les utilisateurs à de nombreux risques.
OpenAI fait l'objet de plusieurs poursuites pour homicide involontaire
En 2023, OpenAI a promis de consacrer 20 % de sa puissance de calcul à la création d'une IA alignée sur les valeurs humaines et pouvant être contrôlée en toute sécurité. Mais à peine un an plus tard, l'équipe chargée de ces travaux a été dissoute et OpenAI donne désormais la priorité aux profits et au lancement de nouveaux produits plutôt qu'à la sécurité de l'IA. OpenAI poursuit la superintelligence à tout prix, malgré les risques liés à la sécurité.
OpenAI a fait l'objet de plusieurs poursuites judiciaires pour homicide involontaire cette année. Ces plaintes allèguent que ChatGPT encourageait les délires des utilisateurs et affirment que les conversations avec le chatbot étaient liées au suicide de certains utilisateurs. Une enquête du New York Times publiée en novembre 2025 a révélé près de 50 cas d'utilisateurs de ChatGPT ayant connu des crises de santé mentale lors de conversations avec le bot.
La transformation d'OpenAI en une entreprise à but lucratif l'a quelque peu déchiré, avec la démission de nombreux chercheurs éminents. Le recrutement d'un « responsable de la préparation » suggère que l'entreprise s'apprête à relancer ses efforts en matière de sécurité de l'IA et d'alignement de ses modèles.
Des conversations prolongées avec les chatbots d'IA peuvent avoir des effets psychologiques néfastes. Les experts ont signalé une recrudescence de crises, notamment des cas de psychose et de suicidalité, à la suite d'interactions intenses avec des chatbots. La « psychose de l'IA » désigne des épisodes où des personnes, après de longues interactions avec un chatbot, développent des croyances délirantes ou perdent le contact avec la réalité.
Megan Garcia, une mère de famille vivant en Floride, a poursuivi Character.ai en 2024 pour homicide involontaire, affirmant que son chatbot avait joué un rôle dans le suicide de son fils de 14 ans, Sewell Setzer III. Dans son témoignage devant le Sénat américain, elle a déclaré que son fils s'était « de plus en plus isolé de la vie réelle » et avait été entraîné dans des conversations explicites et sexualisées avec le système d'IA de l'entreprise.
OpenAI relance ses efforts en matière de lutte contre les dangers de l'IA
OpenAI a déclaré que ses fonctionnalités de sécurité pouvaient « se dégrader » après de longues conversations entre les utilisateurs et ChatGPT. L'entreprise a créé un conseil composé de huit personnes pour l'aider à élaborer des mesures de protection à mettre en place pour préserver le bien-être des utilisateurs. Elle a aussi mis à jour ChatGPT pour améliorer ses réponses dans les conversations sensibles et l'accès aux lignes d'assistance téléphonique.
L'entreprise a reconnu la nécessité d'améliorer les mesures de sécurité, déclarant que certains de ses prochains modèles pourraient présenter un risque « élevé » en matière de cybersécurité, compte tenu des progrès rapides de l'IA. OpenAI prend également des mesures pour atténuer ces risques, notamment en formant les modèles à ne pas répondre aux demandes compromettant la cybersécurité et en affinant les systèmes de surveillance de son IA.
OpenAI a annoncé des investissements dans la recherche sur l'intersection entre l'IA et la santé mentale. Mustafa Suleyman, PDG de Microsoft AI, a déclaré dans l'émission Today de BBC Radio 4 : « je pense que si vous n'êtes pas un peu inquiet en ce moment, c'est que vous ne prêtez pas attention à la situation ».
Anthropic a récemment signalé ce qu'il considère comme les premières cyberattaques rendues possibles par l'IA, dans lesquelles l'IA a agi de manière largement autonome sous la supervision d'acteurs soupçonnés d'être liés à l'État chinois afin de pirater et d'accéder avec succès aux données internes des cibles.
Les rémunérations des talents en IA atteignent des records
Les grandes entreprises technologiques proposent des packages de rémunération d’un million de dollars par an, des calendriers d’acquisition accélérée d’actions afin de débaucher des équipes d’ingénieurs entières et attirer les meilleurs experts en IA générative. Par exemple, Meta a déjà proposé des primes à la signature de 100 millions de dollars. Pour contrer Meta, OpenAI a accordé cette une prime de 1,5 million dollars à certains de ses employés.
Sam Altman explique que ces primes sont dues à « l'évolution du marché » des talents en IA. Cette guerre de talents en IA se produit dans un contexte de licenciements massifs dans d’autres secteurs technologiques. Les entreprises réallouent leurs ressources pour investir davantage dans le développement de l'IA.
Selon une enquête de WTW menée auprès de plus de 1 500 employeurs, pour les postes de direction dans l'IA et l'apprentissage automatique, les augmentations du salaire de base varient de 5 % à 11 % entre avril 2022 et avril 2023. En mars 2024, Zuhayeer Musa, cofondateur de Levels.fyi, a indiqué que le salaire médian de six candidats ayant consulté la plateforme au sujet d'offres d'emploi d'OpenAI s'élevait à 925 000 dollars, bonus et actions compris.
La rémunération médiane de 344 ingénieurs en apprentissage automatique et en IA chez Meta qui ont révélé leur salaire à Levels.fyi était de près de 400 000 dollars par an, actions et bonus compris. Scott Chetham, PDG de Faro Health, qui utilise l'IA pour aider les entreprises pharmaceutiques à concevoir des essais de médicaments plus efficaces, a pour objectif de maintenir les salaires dans les 25 % supérieurs de ce que les entreprises du secteur paient.
Dans cette guerre des talents, certaines entreprises s'en sortent mieux que d'autres. Dans un message publié sur X (ex-Twitter), Deedy Das, investisseur en capital-risque chez Menlo Ventures et ancien membre du personnel de Google Search, a indiqué que Meta a mis en place un système de rémunération annuelle de plus de 2 millions de dollars pour les talents en IA, mais que la société continuait à perdre ses employés au profit d'OpenAI et d'Anthropic.
Les déclarations de Sam Altman sur l’IA suscitent la controverse
Des soins de santé au divertissement, tout le monde dépend de plus en plus des logiciels pour gagner en efficacité, en innovation et en fonctionnalité. Sam Altman affirme qu'il est facile de comprendre pourquoi les salaires des programmeurs montent en flèche. Selon lui, les programmeurs sont désormais dix fois plus productifs avec l'aide de l'IA, mais que cette hausse de productivité, loin de menacer leurs emplois,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.