IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les employés d'OpenAI auraient reçu deux explications au sujet du licenciement de Sam Altman,
Ce qui les a rendus davantage furieux et 95 % d'entre eux menacent de démissionner

Le , par Mathis Lucas

2PARTAGES

3  0 
Il y a un flou total autour du licenciement du cofondateur d'OpenAI Sam Altman par le conseil d'administration. Et pour ne rien arranger à la situation, le conseil d'administration aurait donné deux exemples du prétendu manque de franchise qui l'a conduit à licencier Altman, plongeant ainsi l'entreprise dans le chaos. L'une des explications était qu'Altman aurait donné le même projet à deux personnes d'OpenAI. D'autre part, Altman aurait donné à deux membres du conseil d'administration des avis différents sur un membre du personnel. Les employés affirment que ces explications n'ont pas de sens et menacent de partir si Altman n'était pas réintégré rapidement.

Vendredi, le conseil d'administration d'OpenAI a congédié de manière inattendue le cofondateur Sam Altman. Greg Brockman, cofondateur et directeur de la technologie, a également été démis de ses fonctions de président du conseil d'administration, après quoi il a rapidement démissionné. Dans la foulée, des pourparlers ont été entamés en vue d'une éventuelle réintégration d'Altman, à la suite d'une vague de soutien de la part de l'industrie et des investisseurs, ainsi que de nombreux chercheurs d'OpenAI qui ont démissionné en signe de solidarité. Mais les pourparlers n'ont pas abouti et le conseil d'administration s'est retrouvé dans l'impasse.

Tard dimanche soir, le scientifique en chef et cofondateur d'OpenAI Ilya Sutskever, qui a contribué à évincer Altman, a tenu avec les employés une réunion au cours de laquelle il devait les informer de ce qui se passait au haut niveau. Lors de la réunion, il a présenté au personnel Emmett Shear, l'ancien PDG de Twitch, qui a été nommé PDG intérimaire d'OpenAI, en remplacement de son prédécesseur de deux jours, Mira Murati, qui avait elle-même remplacé Altman vendredi. Selon la rumeur, Murati a été évincé en raison de son soutien à Altman. Elle a appelé le conseil d'administration à reconsidérer sa décision et réintégrer Altman dans ses fonctions de PDG.


Selon des sources anonymes, seule une poignée d'employés d'OpenAI ont assisté à la réunion avec Sutskever. Le reste du personnel a organisé un débrayage. Elles ont rapporté que le personnel a très mal pris la nomination Emmett Shear à la tête de l'entreprise. « Ce fut un nouveau choc pour les employés, qui avaient été sur le qui-vive tout le week-end », a rapporté une personne ayant assisté à la réunion. La rencontre a pris une autre tournure lorsque Sutskever a tenté d'expliquer au personnel les raisons pour lesquelles Altman a été licencié. Selon les sources, il aurait fourni deux explications ambigües que le personnel a trouvées totalement infondées.

Dans un premier temps, Sutskever aurait expliqué qu'Altman a donné le même projet à deux personnes d'OpenAI. Ensuite, il aurait expliqué qu'Altman a donné à deux membres du conseil d'administration des avis différents sur un membre du personnel. « Ces explications n'avaient pas de sens pour les employés et n'ont pas été bien accueillies. En interne, la théorie la plus répandue est qu'il s'agit d'un "coup d'État" de la part du conseil d'administration, comme on l'appelle au sein de l'entreprise et à l'extérieur. Les raisons invoquées par le conseil d'administration n'ont plus guère d'influence sur le personnel », a déclaré l'une des personnes concernées.

Une autre personne ayant participé à la réunion du dimanche a déclaré que Sutskever est apparu "subjugué" au cours de la réunion. Il a fait volte-face et a exhorté les membres du conseil d'administration (y compris lui-même) à se retirer. Il a exprimé publiquement son "regret d'avoir pris part à la décision du conseil d'administration contre Altman. Mais certains se demandent si tous ces acteurs de premier plan pourraient continuer à travailler avec l'équipe et la direction d'OpenAI ailleurs. D'autres, en revanche, pensent que Sutskever ne sera pas facilement pardonné et qu'il ne sera pas invité à rester ou à rejoindre une nouvelle équipe d'IA chez Microsoft.

Sutskever a posté sur la plateforme de médias sociaux X le 20 novembre. : « je regrette profondément d'avoir participé aux actions du conseil d'administration. Je n'ai jamais eu l'intention de nuire à OpenAI. J'aime tout ce que nous avons construit ensemble et je ferai tout ce que je peux pour réunifier l'entreprise ». Selon la rumeur, Sutskever aurait joué le rôle de meneur du conseil d'administration dans la décision brutale d'évincer Altman, exploitant un désaccord stratégique sur la rapidité de la commercialisation de l'IA générative. Certains analystes estiment d'ailleurs que le licenciement d'Altman reflète le schisme sur l'avenir du développement de l'IA.

Altman et Sutskever seraient en désaccord sur la rapidité de la commercialisation de l'IA générative et sur la manière de réduire les éventuels préjudices pour le public ; ce désaccord aurait atteint son paroxysme lors de la toute première journée des développeurs d'OpenAI qui s'est tenue ce mois-ci. À l'échelle de l'industrie, cela reflète une divergence d'opinions fondamentale sur la sécurité entre deux camps qui développent l'IA et qui réfléchissent à son impact sociétal. D'un côté, il y a ceux qui, comme Altman, considèrent que le développement rapide et, surtout, le déploiement public de l'IA sont essentiels pour tester et perfectionner la technologie.



De l'autre côté, il y a ceux qui affirment que la voie la plus sûre consiste à développer et à tester l'IA en laboratoire pour s'assurer qu'elle est, pour ainsi dire, propre à la consommation humaine. Certains experts craignent que le logiciel d'IA ne devienne incontrôlable et ne conduise à une catastrophe, ce qui inquiète les travailleurs de la technologie qui suivent un mouvement social appelé "altruisme efficace" et qui pensent que les progrès de l'IA devraient profiter à l'humanité. Sutskever fait partie de ceux qui partagent ces craintes. Selon certaines analystes, une division similaire est également apparue entre les développeurs de voitures autonomes.

Quelques heures après la réunion, une lettre ouverte a été rédigée, a circulé parmi les employés pendant la nuit et a été signée par les dirigeants d'OpenAI, y compris Murati et Sutskever, dans laquelle ils protestaient contre la décision du conseil de ne pas ramener Altman. Selon les derniers décomptes, la lettre avait été signée par plus de 95 % des employés. Dans la lettre, les employés insistent sur le fait qu'ils démissionneront si les membres restants du conseil d'administration ne le font pas, si de nouveaux membres du conseil d'administration ne sont pas nommés et si Altman n'est pas réintégré. Un climat de chaos règnerait au sein de l'entreprise.

Ils accusent le conseil d'administration d'avoir sapé la mission d'OpenAI : « jusqu'à présent, l'entreprise pour laquelle nous travaillons et que nous chérissons n'a jamais été dans une position aussi forte. Le processus par lequel vous avez licencié Sam Altman et retiré Greg Brockman du conseil d'administration a mis en péril tout ce travail et sapé notre mission et notre entreprise. Vos actions ont montré de manière évidente que vous êtes incapable de superviser OpenAI. Nous ne pouvons pas travailler pour ou avec des personnes qui manquent de compétence, de jugement et d'attention à l'égard de notre mission et de nos employés ».

Lundi soir, Satya Nadella, PDG de Microsoft, a déclaré que ce type de changement brutal était inacceptable et que des changements importants devaient être faits dans la gestion d'OpenAI. Dans une interview avec CNBC, il s'est prononcé sur un possible exode des talents d'OpenAI vers Microsoft en guise de soutien à Altman et pour continuer à travailler avec ce dernier. Il a déclaré que les employés d'OpenAI étaient libres de rester dans leurs fonctions actuelles ou de rejoindre Microsoft, ajoutant que son entreprise disposait de tout ce qu'il faut pour innover par ses propres moyens. « Je suis ouvert aux deux options », a déclaré Nadella.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du licenciement surprise de Sam Altman d'OpenAI ?
Quels sont les risques auxquels OpenAI est exposé ? L'entreprise va-t-elle s'effondrer ?
Microsoft est-il le grand gagnant dans cette affaire ? Altman va-t-il réellement rester chez Microsoft ?
Le reste du conseil d'administration d'OpenAI va-t-il accepter de démissionner et satisfaire les revendications du personnel ?
Selon vous, quels pourraient être les impacts de ce chaos sur l'avenir d'OpenAI ?

Voir aussi

Sam Altman s'efforcerait toujours de redevenir le PDG d'OpenAI et Satya Nadella, PDG de Microsoft, appelle à des changements clés dans la gouvernance de la startup d'IA

Le nouveau PDG d'OpenAI, Emmett Sheer, admet que le renvoi de Sam Altman a été "très mal géré", après que Sam Altman, cofondateur et PDG d'OpenAI, ait été brutalement démis de ses fonctions

Que s'est-il passé chez OpenAI ? Microsoft et d'autres investisseurs tentent de faire revenir Sam Altman en vain en tant que PDG, le PDG par intérim est déjà remplacé et Altman rejoint Microsoft

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2024 à 12:03
Citation Envoyé par Jules34 Voir le message
C'est hallucinant non ?P
Ben, non.

Le monsieur prépare juste sa défense quand il finira devant un tribunal parce que son "IA machin" a entrainé des catastrophes.

Rappelez-vous du charmant fondateur de Facebook Mark Zuckerberg mis en accusation par des sénateurs lors d'auditions organisées par les autorités américaines: Il a beaucoup pleuré, a dit qu'il ne savait pas et... s'est excusé platement de ne pas avoir fait plus pour éviter les dérives...

Et après? Ben rien! Il a déposé sa cravate et son costard (cela servira pour les prochaines auditions), il a remis son jeans et son T-shirt sale puis a continué comme avant sa vie de milliardaire
5  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 16/10/2024 à 15:09
Tant que les réponses ne seront pas plus fiables qu’actuellement, pourquoi payer ?
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 9:50
C'est hallucinant non ? C'est comme si le Président de Ferrrari expliquait calmement qu'il ne savait même plus comment ses voitures avancent mais que c'est pas grave tant qu'elles avancent !

Je caricature mais c'est un peu flippant quand même.

Et je pense tout de suite au début de l'IA, comme le walk out d'amazon, qui en fait sont juste des milliers de travailleurs sous payés en Inde, donc effectivement vu sous cet angle c'est mieux si le PDG dit qu'il sait même plus comment ça fonctionne, il risque moins gros
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/09/2024 à 4:06
Citation Envoyé par kain_tn Voir le message
Il existe encore, ce type là? Je croyais que la bulle des IA génératives était en train d'éclater et que les investisseurs commençaient enfin à douter et à retirer leurs billes... Oh wait! C'est pour ça qu'il continue de raconter n'importe quoi
Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.

BàT et Peace & Love
2  0 
Avatar de d_d_v
Membre éprouvé https://www.developpez.com
Le 17/10/2024 à 10:14
Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
2  0 
Avatar de melka one
Membre expérimenté https://www.developpez.com
Le 21/11/2023 à 15:12
ils sont malin chez Microsoft.......j'ai rien dit
1  0 
Avatar de kmedghaith
Membre confirmé https://www.developpez.com
Le 30/04/2024 à 9:29
GPT-5 sera beaucoup plus intelligent que GPT-4 et GPT-6 sera beaucoup plus intelligent que GPT-5
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
1  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 30/04/2024 à 12:36
Citation Envoyé par kmedghaith Voir le message
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
Nos données.
1  0