IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI aurait réalisé une percée majeure dans le domaine de l'IA avant l'éviction surprise de Sam Altman,
La découverte a suscité des inquiétudes qui auraient joué un rôle clé dans son licenciement

Le , par Mathis Lucas

5PARTAGES

4  0 
Des chercheurs d'OpenAI auraient averti le conseil d'administration d'une percée dans le domaine de l'IA peu avant le licenciement de Sam Altman. Cependant, cette découverte, qui pourrait permettre à OpenAI de créer des modèles d'IA beaucoup plus puissants, aurait suscité des inquiétudes chez certains membres de l'équipe de recherche. Dans une lettre envoyée au conseil d'administration, ce collectif aurait estimé que cette découverte constitue une menace pour l'humanité et nécessite donc plus de mesures de sécurité. La lettre et l'algorithme d'IA auraient constitué des éléments clés dans l'éviction de Sam Altman. Cela montre qu'il existe des dissensions au sein d'OpenAI.

OpenAI a pris tout le monde de court en annonçant vendredi l'éviction de Sam Altman du poste de PDG et son renvoi de l'entreprise. Mais si le conseil d'administration d'OpenAI pensait pouvoir tourner facilement la page Altman, il s'est malheureusement trompé, car la situation a rapidement pris une tournure chaotique. La majorité des employés et les investisseurs ont pris la défense d'Altman, exigeant son retour ainsi que celui du cofondateur Greg Brockman. Vendredi, Brockman a jugé bon de démissionner, après avoir été démis de ses fonctions du président du conseil d'administration. Les deux hommes ont été réintégrés depuis dans la société.

L'exil d'Altman a duré en tout quatre jours, une courte période durant laquelle le conseil d'administration n'a pas pu fournir de façon concrète les raisons exactes qui l'ont poussé à limoger Altman. Parmi les théories les plus intéressantes qui ont émergé à la suite de l'éviction d'Altman, il y en a une qui a particulièrement retenu l'attention : Altman et le scientifique en chef d'OpenAI, Ilya Sutskever, seraient en désaccord sur la rapidité de la commercialisation de l'IA générative et sur la manière de réduire les éventuels préjudices pour le public. Sutskever, qui aurait joué le rôle de meneur dans l'éviction d'Altman, aurait exploité ce désaccord à son avantage.


OpenAI n'a ni commenté ni démenti cette rumeur. Mais de nouvelles informations tendent à corroborer cette théorie et des sources au sein du personnel d'OpenAI ont rapporté que de nombreux chercheurs d'OpenAI sont profondément préoccupés par une percée récente dans le domaine de l'IA. Et un collectif de chercheurs d'OpenAI aurait même envoyé une lettre au conseil d'administration pour lui faire part de leurs inquiétudes concernant cette découverte. Citant des sources internes à OpenAI, Reuters rapporte que les chercheurs ont expliqué dans leur lettre que la découverte permet de créer de grands modèles de langage (LLM) encore plus puissants.

Cependant, ils auraient précisé que cette découverte augmente les risques et les menaces pour l'humanité. En somme, la percée technique, menée par Sutskever, a suscité des inquiétudes auprès de nombreux chercheurs qui pensent que l'entreprise n'a pas mis en place les garde-fous nécessaires pour commercialiser des modèles d'IA aussi avancés. Cette information, si elle est confirmée, démontre le schisme sur l'avenir du développement de l'IA et la facture entre le business et la science. Les chercheurs auteurs de la lettre semblent préoccupés par une IA qui se rapproche d'une "superintelligence" ou encore d'une intelligence générale artificielle (AGI).

Par contre, Altman et d'autres dirigeants d'OpenAI seraient beaucoup plus enthousiastes à commercialiser la technologie. Les sources ont cité la lettre comme l'un des facteurs d'une longue liste de griefs formulés par le conseil d'administration qui ont conduit au licenciement d'Altman, parmi lesquels des préoccupations concernant la commercialisation des avancées avant d'en comprendre les conséquences. D'après l'une des sources, Mira Murati, directrice de la technologie, a parlé du projet, appelé Q* (prononcé Q-Star), aux employés mercredi et a déclaré qu'une lettre avait été envoyée au conseil d'administration avant les événements de ce week-end.

Après l'apparition des rapports sur l'existence de ce projet, un porte-parole d'OpenAI a déclaré que Murati avait dit aux employés ce que les médias rapportaient, mais qu'elle n'avait pas commenté l'exactitude de l'information selon laquelle le projet aurait un lien avec l'éviction surprise d'Altman. Jusqu'à présent, l'entreprise s'en tient strictement à l'information initiale communiquée au public sur ce renvoi : « son départ fait suite à un processus d’examen délibéré par le conseil d’administration, qui a conclu qu’il n’était pas toujours franc dans ses communications avec le conseil d’administration, ce qui a empêché ce dernier d’exercer ses responsabilités ».

« Le conseil d’administration n’a plus confiance en sa capacité à continuer à diriger OpenAI », a écrit la société dans un billet de blogue. OpenAI définit l'AGI comme un système autonome qui surpasse les humains dans la plupart des tâches à valeur économique. Selon la rumeur, en s'appuyant sur de vastes ressources informatiques, le nouveau modèle a été capable de résoudre certains problèmes mathématiques. « Bien qu'il ne soit capable de faire des mathématiques qu'au niveau des élèves de l'école primaire, le fait d'avoir réussi ces tests a rendu les chercheurs très optimistes quant au succès futur de Q* », a déclaré une source interne à l'entreprise.

Les chercheurs en IA considèrent les mathématiques comme l'une des frontières du développement de l'IA générative. Actuellement, l'IA générative est efficace pour l'écriture et la traduction des langues en prédisant statistiquement le mot suivant, et les réponses à une même question peuvent varier considérablement. Cependant, développer la capacité de faire des mathématiques - où il n'y a qu'une seule bonne réponse - implique que l'IA acquiert des capacités de raisonnement plus grandes, proches de l'intelligence humaine. Selon les chercheurs en IA, cela pourrait s'appliquer à de nouvelles recherches scientifiques, par exemple.

Contrairement à une calculatrice qui ne peut résoudre qu'un nombre limité d'opérations, l'IA est capable de généraliser, apprendre et comprendre. Selon les sources, dans leur lettre au conseil d'administration, les chercheurs ont souligné les prouesses de l'IA et les dangers potentiels. Les informaticiens débattent depuis longtemps du danger que représentent les machines hautement intelligentes, par exemple si elles peuvent décider que la destruction de l'humanité est dans leur intérêt. Mais cette vision dystopique de l'avenir de l'IA est rejetée par un certain nombre d'autres chercheurs en IA, comme le responsable de l'IA chez Meta, Yann LeCun.

Lors d'un sommet de dirigeants mondiaux à San Francisco la semaine dernière, Altman a laissé entendre qu'il pensait que des avancées majeures étaient en vue. « Quatre fois maintenant dans l'histoire d'OpenAI, la fois la plus récente étant juste au cours des deux dernières semaines, j'ai eu l'occasion d'être dans la salle, lorsque nous repoussons en quelque sorte le voile de l'ignorance et la frontière de la découverte, et avoir l'occasion de le faire est l'honneur professionnel d'une vie », a-t-il déclaré lors du sommet de la Coopération économique Asie-Pacifique. Un jour plus tard, le conseil d'administration sortant d'OpenAI a licencié Altman.

Mercredi, Altman a été réintégré en tant que PDG d'OpenAI. Le conseil d’administration sera remanié, éliminant plusieurs membres qui s’étaient opposés à Altman, dont le scientifique en chef Ilya Sutskever. Adam D’Angelo, PDG de Quora, est le seul membre de l'ancien conseil d'administration à avoir conservé sa place après le remaniement. Microsoft dispose désormais d'une place au sein du conseil d'administration. Plus tôt dans la journée, OpenAI avait annoncé avoir trouvé un accord de principe pour le retour d'Altman.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des allégations sur les dissensions au sein d'OpenAI ?
Pensez-vous que la turbulence a définitivement pris fin avec le retour d'Altman ?
Va-t-on assister à un exode des talents d'OpenAI, y compris parmi les cadres de l'entreprise ?
Présentez-vous des départs parmi les auteurs de lettre envoyée à l'ancien conseil d'administration ?
Selon vous, le désaccord entre Altman et le scientifique en chef va-t-il pousser ce dernier à démissionner ?
À quoi pourrait ressembler l'avenir d'OpenAI ? Selon vous, OpenAI a-t-il réellement réalisé une percée en matière d'IA ?

Voir aussi

Sam Altman est réintégré en tant que directeur général d'OpenAI avec un nouveau conseil d'administration qui pourrait compter jusqu'à neuf membres avec un siège pour Microsoft

Les employés d'OpenAI auraient reçu deux explications au sujet du licenciement de Sam Altman, ce qui les a rendus davantage furieux et 95 % d'entre eux menacent de démissionner

Microsoft propose aux employés d'OpenAI de le rejoindre tout en continuant à bénéficier de la même rémunération, mais une sortie de crise se précise chez OpenAI avec le retour de Sam Altman

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/12/2023 à 13:40
Ancienne économie:

La valorisation d'une entreprise était en rapport avec le succès commerciale de cette dernière: Plus elle faisait des bénéfices, plus elle valait chère!

Nouvelle économie:

"OpenAI en pourparlers pour lever de nouveaux fonds pour une valorisation à de 100 milliards de dollars"... Ce qui veut dire? La valeur de l'entreprise repose sur rien! Pas sur son succès, mais simplement sur le nombre de gogos qui sont d'accord de risquer leur fric dans l'affaire...

Quelle économie a le plus de chance de finir dans le mur?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/01/2024 à 7:40
Citation Envoyé par Mathis Lucas Voir le message
L'un des plus gros problèmes de l'absence de raisonnement est que cela rend les grands modèles de langage vulnérables aux hallucinations, aux biais systématiques et d'autres pièges. Cette lacune signifie que l'on ne peut pas faire complètement confiance à l'IA, car elle peut présenter des informations erronées comme étant vraies.
On ne peut faire complètement confiance à une seule source, qu'elle soit informatique, humaine ou journalistique, c'est pour ça qu'il faut recroiser les sources.
Espérer pouvoir se fier à 100% à une IA est illusoire, même si une tonne d'entreprises essayent de vous le vendre.
0  0 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 11/03/2024 à 18:34
Ça ne fait que confirmer la main mise de crosoft sur OAI.
0  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 29/04/2024 à 12:33
"L'Intelligence Artificielle (IA) ne fonctionnera probablement pas"
Pensez-vous que cet avis de Sam Altman est crédible ou pertinent ?

Mais pour lui, l'AI doit arriver à quel but ?
0  0