IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Ilya Sutskever, cofondateur et scientifique en chef d'OpenAI, déclare qu'il regrette profondément d'avoir participé à l'éviction de Sam Altman
Et signe la lettre demandant son retour

Le , par Stéphane le calme

0PARTAGES

11  0 
Ilya Sutskever, le cofondateur et directeur scientifique d’OpenAI, a déclaré sur X/Twitter qu’il regrettait profondément d’avoir participé à l’éviction de Sam Altman, le PDG de l’organisation. Il a même signé une lettre ouverte demandant son retour à OpenAI. Mais le public trouve ce procédé trop facile et estime que la lumière doit être faite sur les motivations réelles derrière une décision aussi radicale. Elon Musk, comme à l'accoutumée, n'hésite pas à exagérer : « Si OpenAI fait quelque chose de potentiellement dangereux pour l’humanité, le monde doit le savoir ».

Ilya Sutskever, cofondateur d'OpenAI et scientifique en chef de l'entreprise, a exprimé ses profonds regrets d'avoir participé à la décision d'évincer Sam Altman.

« Je regrette profondément ma participation aux actions du conseil d'administration. Je n'ai jamais eu l'intention de nuire à OpenAI », a déclaré Sutskever dans un post X lundi. « J'aime tout ce que nous avons construit ensemble et je ferai tout ce que je peux pour l'unité dans l'entreprise ».

Peu de temps après la déclaration du scientifique en chef, Altman a répondu à son message avec trois émojis en forme de cœur.

Elon Musk, quant à lui, a demandé pourquoi une telle décision a été prise :

Pourquoi avez-vous pris une mesure aussi radicale ?

Si OpenAI fait quelque chose de potentiellement dangereux pour l’humanité, le monde doit le savoir.

Tandis qu'un internaute a ironisé en disant :

Les personnes construisant l’IAG sont incapables de prédire les conséquences de leurs actions 3 jours à l’avance.
Cette déclaration pleine de remords faisait suite au fait qu'OpenAI a poussé Altman à quitter son poste de PDG vendredi après-midi et à un week-end de négociations infructueuses pour le ramener dans l'entreprise.

Le conseil d'administration a expulsé Altman et a déclaré vendredi qu'il « n'avait plus confiance en sa capacité à continuer à diriger OpenAI ». La déclaration sans détour indique également que l'ancien PDG « n'a pas été toujours franc dans ses communications avec le conseil d'administration, ce qui a entravé sa capacité à exercer ses responsabilités ».

Dans une série d'événements en montagnes russes au cours du week-end, Altman était envisagé de revenir à la tête de l'entreprise. Il a donné au conseil d'administration un délai fixé à 17 heures PT le samedi pour démissionner s'il devait revenir. Mais le délai a ensuite été prolongé jusqu'à 17 heures PT le dimanche. Cependant, aucun accord n'a été trouvé.

Moins de 24 heures après qu'Altman ait partagé une photo de lui-même depuis le bureau d'OpenAI portant un badge d'invité, le PDG de Microsoft, Satya Nadella, a annoncé qu'Altman rejoignait Microsoft. Greg Brockman, l'ancien président d'OpenAI, devrait également se joindre à nous pour aider à diriger la « nouvelle équipe de recherche avancée sur l'IA » de Microsoft, a déclaré Nadella.

Sutskever était l'un des employés d'OpenAI qui ont signé une lettre ouverte appelant à la réintégration d'Altman

OpenAI était en révolte ouverte lundi lorsque plus de 700 employés ont signé une lettre ouverte menaçant de partir à moins que le conseil d'administration ne démissionne et ne réintègre Sam Altman au poste de PDG, aux côtés de son cofondateur et ancien président Greg Brockman. Altman a été licencié de manière controversée par le conseil d'administration vendredi.

« Le processus par lequel vous avez licencié Sam Altman et retiré Greg Brockman du conseil d'administration a mis en péril tout ce travail et sapé notre mission et notre entreprise », indique la lettre. « Votre conduite a clairement montré que vous n'aviez pas la compétence pour superviser OpenAI ».

Il faut noter que les signataires de la lettre incluent Ilya Sutskever, le scientifique en chef de l’entreprise et membre de son conseil d’administration, qui a été accusé d’avoir coordonné le coup d’État contre Altman en premier lieu. Environ 95 % de l'entreprise a signé la lettre.

Le conseil d'administration semblait disposé à ce qu'Altman revienne à la tête de l'entreprise

Après la réaction des investisseurs, dont Microsoft, le conseil d’administration d’OpenAI semblait disposé à ce qu’Altman revienne à la tête de l’entreprise. Altman a publié dimanche une photo de lui portant un badge de visiteur au siège de l’entreprise. Toutefois, le conseil d'administration a déclaré au personnel qu'Altman ne reviendrait pas dans l'entreprise.

Quelques heures plus tard, le PDG de Microsoft, Satya Nadella, a annoncé qu'Altman et Brockman rejoindraient la grande enseigne de la technologie pour diriger une nouvelle unité de recherche avancée sur l'IA.

Nadella a semblé laisser la porte ouverte à tous les employés d'OpenAI désireux de quitter le navire, ajoutant à propos de la nouvelle filiale Microsoft d'Altman : « Nous sommes impatients d'agir rapidement pour leur fournir les ressources nécessaires à leur succès ».

Nadella a également déclaré sur X que la nouvelle entreprise « établirait un nouveau rythme pour l'innovation », suggérant une approche plus agressive que celle avec laquelle le conseil d'administration d'OpenAI était apparemment à l'aise.

Lors d’un autre remaniement rapide, le conseil d’administration d’OpenAI a choisi de destituer Murati et de nommer un autre PDG par intérim, Emmett Shear, ancien PDG de Twitch, le site de streaming de jeux vidéo.

Certains membres du personnel d'OpenAI sont restés éveillés toute la nuit à débattre d'un plan d'action suite à l'annonce selon laquelle Altman ne reviendrait pas à OpenAI. De nombreux employés étaient frustrés du manque de communication concernant le licenciement d’Altman. Des dizaines d'employés ont semblé signaler leur volonté de quitter le navire et de rejoindre Altman en publiant « OpenAI n'est rien sans ses collaborateurs » sur X.

La lettre des employés d'OpenAI

Au conseil d’administration d’OpenAI.

OpenAI est la première société Al au monde. Nous. les employés d’OpenAI. ont développé les meilleurs modèles et poussé le domaine vers de nouvelles frontières. Notre travail sur la sécurité et la gouvernance de l’aluminium façonne les normes mondiales. Les produits que nous construisons sont utilisés par des millions de personnes à travers le monde. Jusqu'à maintenant. l'entreprise pour laquelle nous travaillons et que nous chérissons n'a jamais été dans une position aussi forte.

Le processus par lequel vous avez licencié Sam Altman et retiré Greg Brockman du conseil d'administration a mis en péril tout ce travail et a miné notre mission et notre entreprise. Votre conduite a fait que vous n'aviez pas la compétence pour superviser OpenAI.

Lorsque nous avons tous appris de manière inattendue votre décision, l'équipe de direction d'OpenAI a agi rapidement pour stabiliser l'entreprise. Ils ont écouté attentivement vos préoccupations et ont essayé de coopérer avec vous sur tous les terrains. Malgré de nombreuses demandes de faits précis pour étayer vos allégations, vous n’avez jamais fourni de preuves écrites. Ils se rendaient également de plus en plus compte que vous n’étiez pas capable de remplir vos fonctions et que vous négociiez de mauvaise foi.

L'équipe de direction a suggéré que la voie la plus stabilisatrice - celle qui servirait le mieux notre mission, notre entreprise, nos parties prenantes, nos employés et le public - serait que vous démissionniez et que vous mettiez en place un conseil d'administration qualifié qui pourrait conduire l'entreprise vers la stabilité. . Les dirigeants ont travaillé avec vous 24 heures sur 24 pour trouver un résultat mutuellement acceptable. Pourtant, deux jours après votre décision initiale, vous avez de nouveau remplacé la PDG par intérim Mira Murati, au mépris des meilleurs intérêts de l'entreprise. Vous avez également informé l'équipe de direction que permettre la destruction de l'entreprise « serait conforme à la mission ».

Vos actions ont montré clairement que vous êtes incapable de superviser OpenAI. Nous sommes incapables de travailler pour ou avec des personnes qui manquent de compétence, de jugement et de souci pour notre mission et nos employés. Nous, soussignés, pouvons choisir de démissionner d'OpenAI et de rejoindre la filiale Microsoft nouvellement annoncée, dirigée par Sam Altman et Greg Brockman. Microsoft nous a assuré qu'il y aurait des postes pour tous les employés d'OpenAI dans cette nouvelle filiale si nous choisissions d'y adhérer. Nous prendrons cette mesure de manière imminente, à moins que tous les membres actuels du conseil d'administration ne démissionnent et que le conseil nomme deux nouveaux administrateurs indépendants principaux, tels que Bret Taylor et Will Hurd, et réintègre Sam Altman et Greg Brockman.
La raison précise du retrait d’Altman reste floue, même pour de nombreux membres de l’entreprise.

Source : Ilya Sutskever

Et vous ?

Quelle est votre opinion sur l’éviction de Sam Altman d’OpenAI ? Pensez-vous qu’il a été traité injustement ou qu’il méritait de partir ?
Que pensez-vous de la réaction d'Ilya Sutskever après avoir participé à ce coup d'état ? Regrets sincères ou réaction tributaire de la colère des employés ?
Quelles sont les qualités que vous attendez d’un leader d’une organisation comme OpenAI, qui vise à créer une IA bénéfique pour l’humanité ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de melka one
Membre expérimenté https://www.developpez.com
Le 21/11/2023 à 15:12
ils sont malin chez Microsoft.......j'ai rien dit
1  0 
Avatar de kmedghaith
Membre confirmé https://www.developpez.com
Le 30/04/2024 à 9:29
GPT-5 sera beaucoup plus intelligent que GPT-4 et GPT-6 sera beaucoup plus intelligent que GPT-5
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
1  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 30/04/2024 à 12:36
Citation Envoyé par kmedghaith Voir le message
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
Nos données.
1  0 
Avatar de Aspartame
Membre confirmé https://www.developpez.com
Le 21/11/2023 à 19:47
a été ( indicatif )
0  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 12:00
Citation Envoyé par Stéphane le calme Voir le message

Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.

Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Je dis bravo quand le capital-risque s'occupe du sort des enfants dans le monde...
0  0 
Avatar de
https://www.developpez.com
Le 22/11/2023 à 15:16
On devrait lui dire : "oh calme toi ! Non tu n'as pas tous les droits.".
0  0 
Avatar de Matthieu_26
Membre régulier https://www.developpez.com
Le 22/11/2023 à 19:35
Ça te barbera - épisode 69

Scène 1 : Dans le salon
Satya est en sanglot dans toute la scène...

Satya : (soupir fort) - Franchement, sur ce coup là, tu m'as déçu, Sam... T'était-il vraiment impossible d'agir autrement que tel que tu aurais pu le faire autrement ?

Sam : Ecoutes… Satya

Satya : Réponds moi, Sam...

Sam: Satya, j'ai pas peur de te le dire en face : Si j'ai agi ainsi, c'est parce que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : Bien sûr que je te comprends ! Mais, où veux-tu en venir ?

Sam : Je veux en venir que si j'ai agit de la sorte, c'est que…

Satya : C'est que quoi ?

Sam : C'est que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : C'était donc ça ?

Sam : Ouais !

Satya : Sam , comprends moi, mets toi donc à ma place !

Sam : Que je me mette à ta place ?

Satya : Ouais !

Sam : Ok ! (étouffé)
La suite dans le prochain épisode...
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/12/2023 à 13:40
Ancienne économie:

La valorisation d'une entreprise était en rapport avec le succès commerciale de cette dernière: Plus elle faisait des bénéfices, plus elle valait chère!

Nouvelle économie:

"OpenAI en pourparlers pour lever de nouveaux fonds pour une valorisation à de 100 milliards de dollars"... Ce qui veut dire? La valeur de l'entreprise repose sur rien! Pas sur son succès, mais simplement sur le nombre de gogos qui sont d'accord de risquer leur fric dans l'affaire...

Quelle économie a le plus de chance de finir dans le mur?
0  0