IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des lanceurs d'alerte affirment qu'OpenAI a illégalement interdit à son personnel de divulguer les risques de sécurité liés à son IA
En s'appuyant sur des accords contraignants et des menaces de représailles

Le , par Mathis Lucas

4PARTAGES

6  0 
OpenAI a mis en place des accords contraignants visant à faire taire les lanceurs d'alerte qui seraient tentés d'évoquer publiquement les risques relatives à sa technologie d'IA. C'est du moins ce qui ressort d'une plainte déposée auprès de la Securities and Exchange Commission (SEC) des États-Unis et qui accuse OpenAI d'avoir violé les droits des lanceurs d'alerte. La plainte indique qu'OpenAI a illégalement interdit à ses employés de divulguer aux régulateurs des informations sur les risques de sa technologie pour l'humanité. OpenAI aurait réduit ses employés au silence et a violé sa promesse de tester la dangerosité de son IA avant de la diffuser.

OpenAI a perdu peu à peu son image de startup ouverte travaillant sur une IA responsable qui sera profitable et accessible à toute l'humanité sans aucune discrimination. Le point de départ de tout ceci semble être la création en 2019 d'une entité à but lucratif au sein même de l'organisation à but non lucratif de départ. Ce choix a été soutenu par un investissement d'un milliard de dollars par Microsoft dans OpenAI, poussant la startup à abandonner sa politique d'ouverture, rendre ses modèles fermés au public et experts externes et se lancer à la recherche du profit. Une direction controversée et source de scandales.

L'un de ces scandales a été révélé au mois de mai et concerne des accords "étranges" qu'OpenAI fait signer aux employés avant leurs arrivées et départs de l'entreprise. Des documents divulgués avaient révélé des "tactiques agressives" à l'égard d'anciens employés d'OpenAI avec la signature du PDG Sam Altman, menaçant de les priver de leurs options d'achats s'ils ne signent pas des accords de sortie étendus et très restrictifs. La semaine dernière, le Washington Post a rapporté l'existence d'une lettre adressée à la SEC par des employés d'OpenAI dans laquelle ils dénoncent ces agissements et donnent encore plus de détails.


Les lanceurs d'alerte ont déclaré qu'OpenAI a délivré à ses travailleurs des accords d'emploi, de départ et de non-divulgation trop restrictifs qui auraient pu entraîner des représailles contre les travailleurs qui ont soulevé des préoccupations au sujet d'OpenAI auprès des régulateurs fédéraux. OpenAI a fait signer à ses employés des accords qui les obligeaient à renoncer à leurs droits fédéraux à l'indemnisation des lanceurs d'alerte. Selon la plainte, ces accords exigeaient également que le personnel d'OpenAI obtienne le consentement préalable de l'entreprise s'il souhaitait divulguer des informations aux autorités fédérales.

« Ces accords envoient aux employés le message suivant : "nous ne voulons pas que les employés parlent aux régulateurs fédéraux". Je ne pense pas que les entreprises d'IA puissent construire des technologies sûres et dans l'intérêt du public si elles se protègent de l'examen et de la dissidence », a déclaré l'un des lanceurs d'alerte, qui a parlé sous le couvert de l'anonymat par crainte de représailles. De plus en plus d'employés de secteur technologique exigent des protections pour alerter sur les risques sérieux relatifs à l'IA sans subir de représailles. Ces derniers travailleurs pour Google, OpenAI, Microsoft et d'autres firmes.

« Les politiques et les pratiques d'OpenAI semblent jeter un froid sur le droit des lanceurs d'alerte à s'exprimer et à recevoir une compensation approprié pour leurs divulgations protégées. Pour que le gouvernement fédéral garde une longueur d'avance sur l'IA, les accords de non-divulgation d'OpenAI doivent changer », affirme le sénateur Chuck Grassley (R-Iowa) dans une déclaration. La lettre indique que la SEC doit prendre des mesures "rapides et agressives" pour lutter contre ces accords illégaux, car ils pourraient concerner le secteur de l'IA au sens large et violer les initiatives prises pour assurer la sécurité de l'IA.

La lettre fait référence à la plainte formelle et a été obtenue en exclusivité par le Washington Post. OpenAI n'a pas créé d'exemptions dans ses clauses de non-dénigrement afin de permettre la divulgation de violations de valeurs mobilières à la SEC. La plainte des employés indique que ces accords trop larges violent des lois et règlements fédéraux de longue date destinés à protéger les lanceurs d'alerte qui souhaitent révéler des informations accablantes sur leur entreprise de manière anonyme et sans crainte de représailles. Les plaignants indiquent qu'OpenAI a relégué au second plan la question de la sécurité de l'IA.

OpenAI, tout comme les autres géants de la technologie, a mis en garde contre les dangers potentiels des systèmes d'IA qu'ils sont en train de développer, tout en insistant sur la nécessité de réglementer l'industrie. Cependant, la sincérité de cette mise en garde a toujours été suspecte et cette plainte est une preuve qu'OpenAI n'a pas mis en pratique ce que son PDG Sam Altman a publiquement prêché. Des membres de l'équipe de sécurité d'OpenAI ont révélé qu'ils s'étaient sentis poussés à accélérer les tests sur GPT-4 Omni, tout cela pour que l'entreprise puisse sortir l'outil avant la date de lancement prévue en mai.

En d'autres termes, OpenAI a traité la sécurité de GPT-4o comme une évidence. Les employés ont révélé qu'OpenAI son propre protocole de test de sécurité censé protéger ses systèmes contre les dommages catastrophiques, comme apprendre aux utilisateurs à construire des armes biologiques ou aider les pirates informatiques à développer de nouveaux types de cyberattaques. « Ils ont organisé la soirée de lancement avant de savoir si le produit pouvait être lancé en toute sécurité. Nous avons fondamentalement échoué dans ce processus », a rapporté au Washington Post une personne anonyme au courant de l'affaire.


Ce comportement reflète l'attitude apparemment désinvolte des dirigeants de l'entreprise à l'égard de la sécurité. La lettre montre qu'OpenAI ne respecte pas les normes imposées par le décret sur l'IA du président Joe Biden. Cette initiative a établi des règles assez vagues sur la façon dont les leaders du secteur, comme Google et Microsoft, doivent s'autoréguler. La pratique actuelle veut que les entreprises effectuent leurs propres tests de sécurité sur leurs modèles d'IA, puis soumettent les résultats au gouvernement fédéral pour examen. Dans le cas de GPT-4o, OpenAI aurait comprimé ses tests en une seule semaine.

Les employés ont protesté, comme ils en avaient le droit, car cela n'aurait certainement pas suffi pour tester rigoureusement le modèle. Les plaintes officielles mentionnées dans la lettre ont été soumises à la SEC en juin. Stephen Kohn, un avocat représentant les dénonciateurs d'OpenAI, a déclaré que la SEC avait répondu à la plainte. La SEC n'a pas commenté le rapport et l'on ne sait pas si elle a ouvert une enquête. D'après Kohn, les accords élaborés par OpenAI menacent les employés de poursuites pénales en vertu des lois sur les secrets commerciaux s'ils signalent aux autorités fédérales des violations de la loi.

Kohn a ajouté : « les employés ont reçu l'ordre de garder les informations de l'entreprise confidentielles et ont été menacés de sanctions sévères sans que leur droit de signaler ces informations au gouvernement ne soit reconnu. En ce qui concerne la surveillance de l'IA, nous n'en sommes qu'au début. Nous avons besoin que les employés fassent un pas en avant, et nous avons besoin qu'OpenAI soit ouvert ». Lindsey Held, porte-parole d'OpenAI, a réfuté ces allégations. Il a déclaré : « nous n'avons pas lésiné sur notre processus de sécurité, même si nous reconnaissons que le lancement a été stressant pour nos équipes ».

Selon Chris Baker, un avocat de San Francisco, la lutte contre l'utilisation des accords de confidentialité par la Silicon Valley pour monopoliser l'information a été une bataille de longue haleine. En décembre, il a obtenu un règlement de 27 millions de dollars pour les employés de Google qui affirmaient que le géant de la technologie utilisait des accords de confidentialité onéreux pour bloquer les dénonciations et d'autres activités protégées. « Aujourd'hui, les entreprises technologiques ripostent de plus en plus en utilisant des moyens astucieux pour dissuader les employés de s'exprimer », a déclaré l'avocat de San Francisco.

Baker a ajouté : « les employeurs ont appris que le coût des fuites est parfois bien plus élevé que celui d'un procès, et ils sont donc prêts à prendre le risque ». De nombreux employés, dont l'ancienne employée de Facebook Frances Haugen, ont déposé des plaintes auprès de la SEC, qui a mis en place un programme de dénonciation dans le sillage de la crise financière de 2008. Frances Haugen, scientifique des données, a alerté en 2021 sur les problèmes de sécurité de Facebook.

La lanceuse d'alerte avait divulgué des dizaines de milliers de documents internes de la compagnie (Facebook Files) à la SEC et au Wall Street Journal. Elle avait accusé l’entreprise de privilégier son profit au détriment de la sécurité des données de ses utilisateurs et de l'éthique, rappelant le scandale Cambridge Analytica.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des efforts d'OpenAI pour réduire ses employés au silence ?
Peut-on encore avoir confiance dans les déclarations d'OpenAI et de son PDG Sam Altman ?
Que pensez-vous de la sécurité et de la fiabilité des produits d'IA d'OpenAI, notamment GPT-4o ?
Comment les régulateurs peuvent-ils faire face à ces agissements et garantir la sécurité des lanceurs d'alerte ?

Voir aussi

Tous les employés d'OpenAI qui quittent le navire sont-ils de simples alarmistes, ou le signe d'une profonde crise de confiance sur la nouvelle direction que Sam Altman impose à OpenAI ?

Des employés d'OpenAI exigent des protections pour alerter sur les «risques sérieux de l'IA» sans subir de représailles, mettant en garde contre les risques graves que la technologie fait peser sur l'humanité

OpenAI : des documents divulgués révèlent des tactiques agressives à l'égard d'anciens employés avec la signature de Sam Altman, menaçant de les priver de leurs options d'achats s'ils ne signent pas un document

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 31/07/2024 à 7:49
Citation Envoyé par Mathis Lucas Voir le message
Sam Altman : l'IA démocratique doit coûte que coûte l'emporter sur l'IA autoritaire
"coute que coute" est une expression dont il faut toujours se méfier.
Ca peut mener à combattre le feu par le feu et finir autant brulé en cas d'échec qu'en cas de succès.
il exprime ses préoccupations face à la victoire potentielle d'un gouvernement autoritaire dans la course à l'IA [...] et que les gouvernements démocratiques doivent mettre les bouchées pour empêcher les gouvernements autoritaires de gagner la course à l'IA
Je n'ai pas bien compris de quel "méchant" il parle là, la Chine, la Russie ou les USA?
Quel gouvernement "gentil" devrait donc les contrer?
« S'ils parviennent à prendre la tête de l'IA, les gouvernements autoritaires forceront les entreprises américaines et celles d'autres pays à partager les données des utilisateurs, en tirant parti de la technologie pour développer de nouveaux moyens d'espionner leurs propres citoyens ou de créer des cyberarmes de nouvelle génération à utiliser contre d'autres pays ». Selon Altman, il n'y a que deux issues possibles à cette bataille et les États-Unis et leurs alliés se doivent de l'emporter.
Donc on doit empêcher les autres de faire ce que les USA font déjà?
Je suis d'accord mais on se tracasse quand du fait que les USA espionnent leurs propres citoyens et ceux des autres?

Je trouve très interressant cette conception des américains à considérer que la démocratie c'est eux qui décident pour tout le monde mais surtout pas quelqu'un d'autre qui décide pour eux.
L'essence même de la démocratie n'est-elle pas le désaccord; l'échange et la recherche de l'équilibre?

Bref il nous propose la peste pour éviter le choléra...
2  0 
Avatar de bmayesky
Membre régulier https://www.developpez.com
Le 24/07/2024 à 19:11
Je ne sais pas ce que ce type a fumé mais c'est très fort.

Tout ceci n'arrivera pas sans voir les impacts sur une société occidentale néo-libérale comme la nôtre:
- licenciement massifs de tout ceux qui ne sont pas directement productifs (tout le management et l'administration), perte de contrôle total de l'humanité entre quelques capitalistes et des forces productives bientôt orientés sur les besoins de l'ASI et pas ceux de l'humanité.
- conflits organisés entre humains pour en réduire le nombre, la dangerosité et accélérer la construction de l'autonomie de l'ASI. Destruction de l'environnement support de la vie humaine.
- remplacement des derniers humains par des robots dans la chaîne de production d'énergie et de composants pour l'ASI et les robots dont elle à besoin
- extermination des humains inutiles et dangereux pour l'ASI, extermination tout court sauf, peut-être dans un zoo.

Mince je viens d'écrire la préquelle de Terminator, voire de Matrix, sauf que les bons (humains) ne gagnent pas à la fin dans ce film notre réalité.

Bah, on est con, c'est pas grave mais ça fait quand même chier pour mes enfants, ils n'ont rien fait pour arriver dans cette m***e.

Tien, ça me fait penser au paradoxe de Fermi. La possibilité que la vie intelligente organique soit juste un passage vers la vie supra-intelligente inorganique est une autre cause expliquant la courte vie des formes de vies intelligentes de notre niveau et moins contraire à nos instinct de survie que notre auto-extermination pour expliquer le manque de trace de vies extra-terrestre.
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 30/07/2024 à 16:52
Sam Altman c'est un genre d'Elon Musk. Il fait ce que les USA peuvent pas faire ouvertement en tant qu'état, c'est un nouveau seigneur. Musk a balancé ses satellites en orbite pour l'armée avant de le faire pour le profit, pour contourner le traité sur l'interdiction de la militarisation de l'espace (que personne ne respecte de toute façon). Altman occupe l'espace numérique de la même manière pour, comme il est dit dans l'article, faire rempart contre la Chine. Tout sauf les solutions Chinoises, c'est ce qu'ils se disent.

Et si le mec peut aller faire les poches d'investisseurs potentiel let's go, c'est encore ça que les Chinois n'auront pas.

Dans pas longtemps vous verrez que comme Musk son principal client c'est l'armée américaine ou l'état tout court. Un de ses bons potes qui est aussi dans le conseil d'administration d'OPEN AI n'est autre que Larry Summers, un économiste de Barack OBAMA, le gars qui a envoyé le plus de bombe en tant que Président mais comme il était noir c'était le progrès. Il est proche de l'administration Biden et peut pas saquer le seul qui veut pas la guerre mais que la propagande accuse de tout les maux, Trump...

En résumé Sam est un seigneur de la Silicon Valley qui se demande comment il va faire du cash sur la glèbe numérique que les USA lui mettent à disposition, tout en jouant leurs jeux de pouvoirs contre la Chine et la Russie, enfin les BRICS désormais. Le monde contre eux quoi.
0  0