OpenAI a perdu peu à peu son image de startup ouverte travaillant sur une IA responsable qui sera profitable et accessible à toute l'humanité sans aucune discrimination. Le point de départ de tout ceci semble être la création en 2019 d'une entité à but lucratif au sein même de l'organisation à but non lucratif de départ. Ce choix a été soutenu par un investissement d'un milliard de dollars par Microsoft dans OpenAI, poussant la startup à abandonner sa politique d'ouverture, rendre ses modèles fermés au public et experts externes et se lancer à la recherche du profit. Une direction controversée et source de scandales.
L'un de ces scandales a été révélé au mois de mai et concerne des accords "étranges" qu'OpenAI fait signer aux employés avant leurs arrivées et départs de l'entreprise. Des documents divulgués avaient révélé des "tactiques agressives" à l'égard d'anciens employés d'OpenAI avec la signature du PDG Sam Altman, menaçant de les priver de leurs options d'achats s'ils ne signent pas des accords de sortie étendus et très restrictifs. La semaine dernière, le Washington Post a rapporté l'existence d'une lettre adressée à la SEC par des employés d'OpenAI dans laquelle ils dénoncent ces agissements et donnent encore plus de détails.
Les lanceurs d'alerte ont déclaré qu'OpenAI a délivré à ses travailleurs des accords d'emploi, de départ et de non-divulgation trop restrictifs qui auraient pu entraîner des représailles contre les travailleurs qui ont soulevé des préoccupations au sujet d'OpenAI auprès des régulateurs fédéraux. OpenAI a fait signer à ses employés des accords qui les obligeaient à renoncer à leurs droits fédéraux à l'indemnisation des lanceurs d'alerte. Selon la plainte, ces accords exigeaient également que le personnel d'OpenAI obtienne le consentement préalable de l'entreprise s'il souhaitait divulguer des informations aux autorités fédérales.
« Ces accords envoient aux employés le message suivant : "nous ne voulons pas que les employés parlent aux régulateurs fédéraux". Je ne pense pas que les entreprises d'IA puissent construire des technologies sûres et dans l'intérêt du public si elles se protègent de l'examen et de la dissidence », a déclaré l'un des lanceurs d'alerte, qui a parlé sous le couvert de l'anonymat par crainte de représailles. De plus en plus d'employés de secteur technologique exigent des protections pour alerter sur les risques sérieux relatifs à l'IA sans subir de représailles. Ces derniers travailleurs pour Google, OpenAI, Microsoft et d'autres firmes.
« Les politiques et les pratiques d'OpenAI semblent jeter un froid sur le droit des lanceurs d'alerte à s'exprimer et à recevoir une compensation approprié pour leurs divulgations protégées. Pour que le gouvernement fédéral garde une longueur d'avance sur l'IA, les accords de non-divulgation d'OpenAI doivent changer », affirme le sénateur Chuck Grassley (R-Iowa) dans une déclaration. La lettre indique que la SEC doit prendre des mesures "rapides et agressives" pour lutter contre ces accords illégaux, car ils pourraient concerner le secteur de l'IA au sens large et violer les initiatives prises pour assurer la sécurité de l'IA.
La lettre fait référence à la plainte formelle et a été obtenue en exclusivité par le Washington Post. OpenAI n'a pas créé d'exemptions dans ses clauses de non-dénigrement afin de permettre la divulgation de violations de valeurs mobilières à la SEC. La plainte des employés indique que ces accords trop larges violent des lois et règlements fédéraux de longue date destinés à protéger les lanceurs d'alerte qui souhaitent révéler des informations accablantes sur leur entreprise de manière anonyme et sans crainte de représailles. Les plaignants indiquent qu'OpenAI a relégué au second plan la question de la sécurité de l'IA.
OpenAI, tout comme les autres géants de la technologie, a mis en garde contre les dangers potentiels des systèmes d'IA qu'ils sont en train de développer, tout en insistant sur la nécessité de réglementer l'industrie. Cependant, la sincérité de cette mise en garde a toujours été suspecte et cette plainte est une preuve qu'OpenAI n'a pas mis en pratique ce que son PDG Sam Altman a publiquement prêché. Des membres de l'équipe de sécurité d'OpenAI ont révélé qu'ils s'étaient sentis poussés à accélérer les tests sur GPT-4 Omni, tout cela pour que l'entreprise puisse sortir l'outil avant la date de lancement prévue en mai.
En d'autres termes, OpenAI a traité la sécurité de GPT-4o comme une évidence. Les employés ont révélé qu'OpenAI son propre protocole de test de sécurité censé protéger ses systèmes contre les dommages catastrophiques, comme apprendre aux utilisateurs à construire des armes biologiques ou aider les pirates informatiques à développer de nouveaux types de cyberattaques. « Ils ont organisé la soirée de lancement avant de savoir si le produit pouvait être lancé en toute sécurité. Nous avons fondamentalement échoué dans ce processus », a rapporté au Washington Post une personne anonyme au courant de l'affaire.
Ce comportement reflète l'attitude apparemment désinvolte des dirigeants de l'entreprise à l'égard de la sécurité. La lettre montre qu'OpenAI ne respecte pas les normes imposées par le décret sur l'IA du président Joe Biden. Cette initiative a établi des règles assez vagues sur la façon dont les leaders du secteur, comme Google et Microsoft, doivent s'autoréguler. La pratique actuelle veut que les entreprises effectuent leurs propres tests de sécurité sur leurs modèles d'IA, puis soumettent les résultats au gouvernement fédéral pour examen. Dans le cas de GPT-4o, OpenAI aurait comprimé ses tests en une seule semaine.
Les employés ont protesté, comme ils en avaient le droit, car cela n'aurait certainement pas suffi pour tester rigoureusement le modèle. Les plaintes officielles mentionnées dans la lettre ont été soumises à la SEC en juin. Stephen Kohn, un avocat représentant les dénonciateurs d'OpenAI, a déclaré que la SEC avait répondu à la plainte. La SEC n'a pas commenté le rapport et l'on ne sait pas si elle a ouvert une enquête. D'après Kohn, les accords élaborés par OpenAI menacent les employés de poursuites pénales en vertu des lois sur les secrets commerciaux s'ils signalent aux autorités fédérales des violations de la loi.
Kohn a ajouté : « les employés ont reçu l'ordre de garder les informations de l'entreprise confidentielles et ont été menacés de sanctions sévères sans que leur droit de signaler ces informations au gouvernement ne soit reconnu. En ce qui concerne la surveillance de l'IA, nous n'en sommes qu'au début. Nous avons besoin que les employés fassent un pas en avant, et nous avons besoin qu'OpenAI soit ouvert ». Lindsey Held, porte-parole d'OpenAI, a réfuté ces allégations. Il a déclaré : « nous n'avons pas lésiné sur notre processus de sécurité, même si nous reconnaissons que le lancement a été stressant pour nos équipes ».
Selon Chris Baker, un avocat de San Francisco, la lutte contre l'utilisation des accords de confidentialité par la Silicon Valley pour monopoliser l'information a été une bataille de longue haleine. En décembre, il a obtenu un règlement de 27 millions de dollars pour les employés de Google qui affirmaient que le géant de la technologie utilisait des accords de confidentialité onéreux pour bloquer les dénonciations et d'autres activités protégées. « Aujourd'hui, les entreprises technologiques ripostent de plus en plus en utilisant des moyens astucieux pour dissuader les employés de s'exprimer », a déclaré l'avocat de San Francisco.
Baker a ajouté : « les employeurs ont appris que le coût des fuites est parfois bien plus élevé que celui d'un procès, et ils sont donc prêts à prendre le risque ». De nombreux employés, dont l'ancienne employée de Facebook Frances Haugen, ont déposé des plaintes auprès de la SEC, qui a mis en place un programme de dénonciation dans le sillage de la crise financière de 2008. Frances Haugen, scientifique des données, a alerté en 2021 sur les problèmes de sécurité de Facebook.
La lanceuse d'alerte avait divulgué des dizaines de milliers de documents internes de la compagnie (Facebook Files) à la SEC et au Wall Street Journal. Elle avait accusé l’entreprise de privilégier son profit au détriment de la sécurité des données de ses utilisateurs et de l'éthique, rappelant le scandale Cambridge Analytica.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des efforts d'OpenAI pour réduire ses employés au silence ?
Peut-on encore avoir confiance dans les déclarations d'OpenAI et de son PDG Sam Altman ?
Que pensez-vous de la sécurité et de la fiabilité des produits d'IA d'OpenAI, notamment GPT-4o ?
Comment les régulateurs peuvent-ils faire face à ces agissements et garantir la sécurité des lanceurs d'alerte ?
Voir aussi
Tous les employés d'OpenAI qui quittent le navire sont-ils de simples alarmistes, ou le signe d'une profonde crise de confiance sur la nouvelle direction que Sam Altman impose à OpenAI ?
Des employés d'OpenAI exigent des protections pour alerter sur les «risques sérieux de l'IA» sans subir de représailles, mettant en garde contre les risques graves que la technologie fait peser sur l'humanité
OpenAI : des documents divulgués révèlent des tactiques agressives à l'égard d'anciens employés avec la signature de Sam Altman, menaçant de les priver de leurs options d'achats s'ils ne signent pas un document