Mrinank Sharma, responsable senior de la sécurité de l'IA, a démissionné d'Anthropic, déclarant qu'il se retirait à un moment où il estime que « le monde est en péril » Mrinank Sharma, responsable senior de la sécurité IA chez Anthropic, a démissionné de l'entreprise, déclarant qu'il se retirait à un moment où il estime que « le monde est en péril ». Sharma, qui dirigeait l'équipe de recherche sur les mesures de protection de l'entreprise, a annoncé son départ dans une lettre adressée à ses collègues et publiée le 9 février. Dans cette lettre, il revient sur son travail, ses préoccupations concernant les risques mondiaux et sa décision de poursuivre une autre voie en dehors du secteur en pleine évolution de l'IA.
Avant le boom de l'intelligence artificielle (IA), plusieurs experts ont mis en garde concernant le danger de la technologie. En 2019, Elon Musk, le patron de Tesla et de SpaceX, a averti que « l’IA est plus dangereuse que les ogives nucléaires » et il devrait exister un organisme de réglementation supervisant le développement de cette technologie. « Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », a prévenu Musk.
Si depuis, Elon Musk a fondé sa propre entreprise d'IA, xAI, et lancé son modèle d'IA controversé, Grok, les observateurs continuent d'alarmer sur les risques que posent l'IA. Récemment, c'est le responsable de la sécurité de l'IA chez Anthropic, l'une des plus grandes entreprises d'IA de la Silicon Valley, qui a démissionné et mis en garde contre le « péril dans lequel se trouve le monde ». Il a notamment invoqué de profondes inquiétudes concernant les crises mondiales et les pressions internes qui vont à l'encontre des valeurs fondamentales de l'entreprise.
Mrinank Sharma, responsable senior de la sécurité IA chez Anthropic, a démissionné de l'entreprise, déclarant qu'il se retirait à un moment où il estime que « le monde est en péril ». Sharma, qui dirigeait l'équipe de recherche sur les mesures de protection de l'entreprise, a annoncé son départ dans une lettre adressée à ses collègues et publiée le 9 février. Dans cette lettre, il revient sur son travail, ses préoccupations concernant les risques mondiaux et sa décision de poursuivre une autre voie en dehors du secteur en pleine évolution de l'IA. « Je ne cesse de réfléchir à notre situation. Le monde est en péril. Et pas seulement à cause de l'IA ou des armes biologiques, mais à cause de toute une série de crises interdépendantes qui se déroulent en ce moment même », écrit Sharma dans sa lettre.
Au cours de ses deux années chez Anthropic, Sharma a travaillé sur plusieurs initiatives cruciales en matière de sécurité. Il a cité parmi ses réalisations la compréhension de la flagornerie de l'IA, le développement de défenses contre le bioterrorisme assisté par l'IA et la production de l'un des premiers cas de sécurité de l'IA. Son dernier projet portait sur « la compréhension de la manière dont les assistants IA pourraient nous rendre moins humains ou déformer notre humanité », selon la lettre.
Un thème récurrent dans la lettre de Sharma est la tension entre les valeurs et les pressions du monde réel au sein des organisations et de la société. « Tout au long de mon séjour ici, j'ai constaté à maintes reprises à quel point il est difficile de laisser nos valeurs guider véritablement nos actions. Je l'ai constaté en moi-même, au sein de l'organisation, où nous sommes constamment soumis à des pressions pour mettre de côté ce qui compte le plus, mais aussi dans la société en général », écrit-il.
Il ajoute une mise en garde plus générale sur le rythme de l'évolution technologique : « Nous semblons approcher d'un seuil où notre sagesse doit croître au même rythme que notre capacité à influencer le monde, sous peine d'en subir les conséquences. » Bien que la lettre n'accuse pas Anthropic d'actes répréhensibles spécifiques, son ton a alimenté le débat au sein de la communauté technologique sur les tensions éthiques liées au travail à la pointe du développement de l'IA.
Au-delà des débats internes, le départ de Sharma fait écho à l'inquiétude générale du public concernant l'IA. Les sondages et le discours public reflètent de plus en plus la crainte que l'IA avancée puisse entraîner des conséquences catastrophiques, allant de la perte massive d'emplois et de la déstabilisation sociale à la perte de l'action humaine, voire à un risque existentiel. Le langage utilisé par Sharma pour décrire un monde « en péril » reflète ces inquiétudes plus générales, renforçant le sentiment que les promesses de l'IA et son potentiel de nuisance s'accélèrent de concert.
D'éminents technologues et chercheurs ont averti que le développement incontrôlé de l'IA pourrait dépasser la capacité de la société à la réguler, une préoccupation amplifiée par la sortie rapide de modèles toujours plus puissants. En octobre 2025, plus de 800 figures publiques — scientifiques, ingénieurs, entrepreneurs, philosophes, artistes, et même membres de la royauté britannique — se sont unies pour demander l’interdiction pure et simple du développement d’une intelligence artificielle « superintelligente ». Parmi elles, Geoffrey Hinton, Yoshua Bengio, Steve Wozniak, mais aussi Prince Harry et Meghan Markle. L’appel, orchestré par le Future of Life Institute, relance avec force un débat brûlant : l’humanité doit-elle vraiment construire une intelligence plus puissante qu’elle ? Et si oui, qui devrait en avoir le droit ?
Aujourd'hui, c'est mon dernier jour chez Anthropic. J'ai démissionné.
Voici la lettre que j'ai partagée avec mes collègues pour leur expliquer ma décision.
Voici la lettre que j'ai partagée avec mes collègues pour leur expliquer ma décision.
Today is my last day at Anthropic. I resigned.
— mrinank (@MrinankSharma) February 9, 2026
Here is the letter I shared with my colleagues, explaining my decision. pic.twitter.com/Qe4QyAFmxL
Plutôt que de rejoindre une autre entreprise technologique, Sharma emprunte une voie non conventionnelle. Il prévoit de se lancer dans des études de poésie et de pratiquer ce qu'il appelle le « discours courageux ». Sharma a écrit : « Mon intention est de créer un espace pour mettre de côté les structures qui m'ont retenu ces dernières années et voir ce qui pourrait émerger en leur absence. »
Sharma n'est pas le seul à avoir récemment quitté l'entreprise. D'autres chercheurs, dont Harsh Mehta et Behnam Neyshabur, ont récemment quitté Anthropic pour « se lancer dans quelque chose de nouveau ». Cette décision intervient alors que la société serait à la recherche d'un nouveau tour de financement qui pourrait la valoriser à 350 milliards de dollars et qu'elle déploie de manière agressive de nouveaux modèles plus puissants comme Claude Opus 4.6.
Sharma a conclu sa lettre par un poème de William Stafford, The Way It Is, qui traite de la nécessité de s'accrocher à un fil conducteur personnel à travers les changements de la vie. Il suit clairement son propre fil conducteur, laissant derrière lui une industrie de l'IA en plein essor pour se pencher sur ses plus grandes questions depuis l'extérieur.
Même Microsoft avait averti sur les dangers de l'IA, affirmant que l'IA causera « des dommages réels ». En 2023, Microsoft avait déclaré : « Si cette technologie offre des possibilités fascinantes pour la créativité, l’éducation, le divertissement ou la communication, elle présente aussi des risques importants pour la société et l’humanité. » Parmi les dangers, Microsoft avait cité : la désinformation et la manipulation, la perte d’authenticité et de confiance, l’éthique et la responsabilité et l’impact sur les relations humaines.
Source : Mrinank Sharma
Et vous ?
Pensez-vous que cette avertissement est crédible ou pertinent ?
Quel est votre avis sur le sujet ?Voir aussi :
En 2024, la Silicon Valley a réussi à étouffer l'influence du mouvement mettant en garde contre les dangers potentiels de l'IA, tout en dépensant des millions pour empêcher la réglementation de la technologie
Le monde «pourrait ne pas avoir le temps» de se préparer aux risques liés à la sécurité de l'IA, selon un chercheur. L'industrie joue-t-elle avec le feu en déployant des systèmes que personne ne maîtrise ?
La nouvelle «constitution» de Claude d'Anthropic : sois serviable, honnête et ne détruis pas l'humanité. Le modèle est entraîné à raisonner sur les motifs pour lesquels une réponse pourrait être problématique
Vous avez lu gratuitement 1 060 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.