IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI : des documents divulgués révèlent des tactiques agressives à l'égard d'anciens employés avec la signature de Sam Altman
Menaçant de les priver de leurs options d'achats s'ils ne signent pas un document

Le , par Stéphane le calme

126PARTAGES

5  0 
Des documents internes récemment fuités d'OpenAI révèlent des tactiques controversées utilisées contre les anciens employés, soulevant des questions sur la transparence et l'intégrité de l'entreprise pionnière dans le domaine de l'intelligence artificielle.

Vendredi, les médias ont rapporté que les employés du spécialiste de l'AI OpenAI qui souhaitaient quitter l'entreprise ont été confrontés à des documents de sortie étendus et très restrictifs. S'ils refusaient de signer dans un délai relativement court, ils étaient menacés de perdre leurs droits acquis dans l'entreprise - une disposition sévère qui n'est pas courante dans la Silicon Valley. Cette politique avait pour effet de forcer les ex-employés à choisir entre renoncer à des millions de dollars qu'ils avaient déjà gagnés ou accepter de ne pas critiquer l'entreprise, sans date butoir.

Selon des sources internes à l'entreprise, la nouvelle a provoqué une tempête au sein d'OpenAI, une société privée actuellement évaluée à quelque 86 milliards de dollars. À l'instar de nombreuses start-ups de la Silicon Valley, les employés d'OpenAI reçoivent souvent la majorité de leur rémunération globale sous forme d'actions. Ils ont tendance à penser qu'une fois « acquis », selon le calendrier établi dans leur contrat, ces fonds leur appartiennent et ne peuvent être repris, pas plus qu'une entreprise ne récupèrerait un salaire versé.


Un jour après la publication de ces révélations, le PDG Sam Altman a présenté ses excuses, en déclarant :

Citation Envoyé par Sam Altman
En ce qui concerne les récentes informations sur la manière dont OpenAI gère les fonds propres :

Nous n'avons jamais récupéré les droits acquis de qui que ce soit, et nous ne le ferons pas si les gens ne signent pas un accord de séparation (ou n'acceptent pas un accord de non-dénigrement). Les droits acquis sont des droits acquis, point final.

Il y avait une disposition concernant l'annulation potentielle des actions dans nos documents de sortie précédents ; bien que nous n'ayons jamais récupéré quoi que ce soit, cela n'aurait jamais dû figurer dans aucun document ou communication. C'est de ma faute et c'est l'une des rares fois où j'ai été vraiment été embarrassé dans ma direction d'OpenAI ; je ne savais pas que cela se produisait et j'aurais dû le savoir.

L'équipe était déjà en train de corriger les documents de sortie standard au cours du dernier mois environ. Si un ancien employé qui a signé l'un de ces anciens accords est inquiet à ce sujet, il peut me contacter et nous le corrigerons également. Je suis vraiment désolée.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">in regards to recent stuff about how openai handles equity:<br><br>we have never clawed back anyone's vested equity, nor will we do that if people do not sign a separation agreement (or don't agree to a non-disparagement agreement). vested equity is vested equity, full stop.<br><br>there was…</p>— Sam Altman (@sama) <a href="https://twitter.com/sama/status/1791936857594581428?ref_src=twsrc%5Etfw">May 18, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Ces excuses ont été reprises dans des communications internes par certains membres de l'équipe de direction d'OpenAI. Dans un message aux employés qui a fuité dans la presse, le responsable de la stratégie d'OpenAI, Jason Kwon, a reconnu que la disposition était en place depuis 2019, mais que « l'équipe s'en est aperçue il y a environ un mois. Le fait que cela ait duré aussi longtemps avant que l'équipe ne s'en aperçoive est de ma faute ».

Mais ces excuses de la direction de l'entreprise posent un problème

Les documents de l'entreprise obtenus par les médias avec les signatures d'Altman et de Kwon compliquent leur affirmation selon laquelle les dispositions de récupération étaient quelque chose dont ils n'avaient pas connaissance. Une lettre de séparation figurant sur les documents de licenciement dit en langage clair : « Si vous avez des parts acquises [...], vous devez signer un accord de renonciation aux réclamations dans les 60 jours afin de conserver ces parts. » Il est signé par Kwon, ainsi que par la vice-présidente d'OpenAI, Diane Yoon (qui a récemment quitté OpenAI). La NDA (clause de non-divulgation) secrète ultra-restrictive, signée uniquement pour la « contrepartie » des actions déjà acquises, est signée par le directeur de l'exploitation Brad Lightcap.

Parallèlement, selon des documents fournis à la presse par d'anciens employés, les documents d'incorporation de la société holding qui gère les actions d'OpenAI contiennent de nombreux passages avec des termes qui donnent à la société le pouvoir quasi arbitraire de récupérer les actions des anciens employés ou - ce qui est tout aussi important - de les empêcher de les vendre.

Ces documents constitutifs ont été signés le 10 avril 2023 par Sam Altman en sa qualité de PDG d'OpenAI.

Une énorme contradiction

Le NYT a demandé à OpenAI si elle pouvait expliquer si et comment ces clauses avaient été intégrées dans les documents d'incorporation à l'insu d'Altman. Bien que cette question n'ait pas reçu de réponse directe, Kwon a déclaré au NYT : « Nous sommes désolés pour la détresse que cela a causée à des personnes formidables qui ont travaillé dur pour nous. Nous nous sommes efforcés de résoudre ce problème aussi rapidement que possible. Nous travaillerons encore plus dur pour être meilleurs ».

La contradiction apparente entre les déclarations récentes des dirigeants d'OpenAI et ces documents a des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Eric80
Membre éprouvé https://www.developpez.com
Le 09/07/2024 à 15:51
Il y a peut-être aussi une autre raison bassement pécuniaire: tout ces beaux cerveaux n'ont ils pas décroché le jackpot en tant qu'employés d OpenAI? Leurs stocks-options les ont tous rendu millionnaires, non? On peut bien quitter le bateau qd on reçoit qques millions de cash!
3  0 
Avatar de
https://www.developpez.com
Le 29/01/2025 à 14:33
Les craintes de Steven Adler font écho à des préoccupations exprimées par certains des plus grands chercheurs en IA du monde avant lui. Stuart Russell, professeur d'informatique à l'université de Californie à Berkeley, a déclaré au Financial Times que « la course à l'IA est une course au bord de la falaise ».

Stuart Russell explique notamment : « même les chefs d'entreprises qui s'engagent dans la course ont déclaré que le vainqueur a une forte probabilité de provoquer l'extinction de l'humanité, car nous n'avons aucune idée de la manière de contrôler des systèmes plus intelligents que nous ».
Hum, ça fait un moment que nous ne sommes plus au bord de la falaise ...

Une AGI orientée vers la doctrine de l'ennemi ou une doctrine "full spectrum dominance" provoquera l'extinction de l'espèce humaine.
Logiquement, à partir des stratégies développées actuellement au sein d'un jeu (mondial) à somme nulle ...
Côté humain, l'incontrôle est lié à la fascination de l'ego : l'ego, ultimement pour "exister" à partir de sa non-existence doit se légitimer en faisant disparaître son support (physique : c'est décrit notamment dans " la doctrine suprême" ; c'est comme un reflet de ce fameux "vide" ou vacuité dans la "pensée" zen, qui n'est pas une pensée, au passage) et cela a à voir avec l'élément (l'individu, de fait l'espèce humaine) et non l'ensemble (l'humanité).

De mon point de vue, cela peut-être "modélisé" sous la forme d'un attracteur et lié à un biais cognitif (pensée à somme nulle) inhérent au fait de "baigner" dans un jeu à somme nulle (sans parler du côté addictif agissant comme un renforcement).
Donc il s'agit de franchir l'abîme, en fait.
0  0 
Avatar de
https://www.developpez.com
Le 30/01/2025 à 2:43
Folklore, fantasmes et psychose collective ne font pas bon ménage.

Il y a des milliers d'ogives nucléaires virtuellement prêtes à servir de part et d'autre de la planète. Une demi-douzaine de missiles suffirait pour en finir avec l'humanité, ou en tout cas avec le monde "moderne". Nous vivons avec cette épée de Damocles au-dessus de la tête depuis plus de 80 ans et personne ne cris au loup sur X pour autant. Par contre l'AGI n'est techniquement pas définie, si ce n'est sous forme de punchline, et tout l'Occident s'affole.
0  0