IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Elon Musk estime que le licenciement de Sam Altman pourrait être lié à un désaccord sur une "découverte dangereuse" faite par OpenAI,
Mais cette théorie est controversée par plusieurs experts en IA

Le , par Mathis Lucas

15PARTAGES

4  0 
Elon Musk, PDG de Tesla et de SpaceX, a également sa propre idée sur les potentielles raisons pour lesquelles OpenAI a licencié Sam Altman le mois dernier. Il a déclaré lors d'une interview qu'il n'est pas impossible que le PDG d'OpenAI ait été momentanément débarqué de son rôle en raison d'un désaccord sur une "découverte dangereuse" faite par les chercheurs de l'entreprise. Elon Musk a affirmé avoir des sentiments mitigés à l'égard de Sam Altman et a insinué que le pouvoir l'a peut-être corrompu. Cette théorie est toutefois controversée et le responsable de l'IA chez Meta estime que les informations sur la mystérieuse découverte d'OpenAI ne sont qu'un déluge d'absurdités.

Sam Altman a été licencié à la surprise générale le 17 novembre. Bien qu'il ait été réintégré depuis dans son rôle de PDG d'OpenAI, les raisons à l'origine de son départ restent encore un mystère, ce qui donne lieu à de nombreuses spéculations. Elon Musk, qui a cofondé OpenAI en 2015, n'a pas manqué l'occasion de donner son point de vue sur la question. Interrogé sur ce qui avait pu se passer pendant cette période tumultueuse au sein d'OpenAI, Musk a déclaré qu'il n'a pas de scoop sur le drame impliquant le départ soudain d'Altman et son retour tout aussi rapide, mais qu'il est particulièrement préoccupé par ce que cela signifiait pour l'avenir de l'IA.

L'interview de Musk est intervenu dans le cadre de l'événement DealBook Summit du New York Times le 29 novembre. Lors de l'interview, le journaliste Andrew Sorkin a demandé à Musk son avis sur ce qui a poussé son ami personnel et scientifique en chef d'OpenAI, Ilya Sutskever, à évincer Altman de la direction de la société. Musk a déclaré : « je pense que nous devrions nous préoccuper de cette question parce que je pense qu'Ilya a en fait une forte conscience morale. Il se préoccupe vraiment de ce qui est juste. Ainsi, si Ilya était suffisamment convaincu pour vouloir renvoyer Sam, je pense que le monde devrait savoir quelle était cette raison ».


Sutskever était l'un des membres du conseil d'administration qui avait initialement voté en faveur de l'éviction d'Altman. Il a toutefois semblé faire marche arrière par la suite. Musk a défendu Sutskever après que ce dernier été critiqué pour son implication dans l'éviction d'Altman, et il a déclaré à CNBC en début d'année qu'il était à l'origine de l'embauche de Sutskever par OpenAI. D'ailleurs, lors de l'interview, Musk a confié que son amitié avec Larry Page, cofondateur de Google, s'est rompue après qu'il a embauché Sutskever au sein d'OpenAI. Répondant à une question, Musk a déclaré : « c'est exact. Larry a refusé d'être mon ami après que j'ai recruté Ilya ».

Musk a déclaré lors de l'interview qu'il n'a pas parlé avec Sutskever de l'incident et que ce dernier n'a souhaité se confier à personne : « je lui ai tendu la main, mais il ne veut parler à personne ». Il a aussi ajouté qu'il a mené sa propre enquête sur ce qui s'est passé chez OpenAI pendant cette brève période, mais qu'il n'avait obtenu aucune réponse à ses préoccupations : « j'ai parlé à beaucoup de gens. Je n'ai trouvé personne qui sache pourquoi. Et vous ? De deux choses l'une : soit il s'agit d'une affaire sérieuse et nous devrions savoir de quoi il s'agit, soit il ne s'agit pas d'une affaire sérieuse et le conseil d'administration devrait alors démissionner ».

Interrogé sur Altman, Musk a laissé entendre que ce dernier a peut-être été corrompu par tout le pouvoir que sa position lui confère, qui l'a détourné de mission initiale. « J'ai des sentiments mitigés à l'égard de Sam. L'anneau de pouvoir peut corrompre, et il a l'anneau de pouvoir », a déclaré l'homme d'affaires, évoquant "Le Seigneur des anneaux". « Donc je ne sais pas. Je pense que j'aimerais savoir pourquoi Ilya s'est senti obligé de renvoyer Sam. Cela semble être une chose sérieuse. Je ne pense pas que ce soit anodin. Et je crains qu'il y ait un élément dangereux de l'IA qu'ils ont créé ». Musk pense qu'OpenAI a fait une "découverte dangereuse".

Cette mystérieuse découverte d'OpenAI a fait énormément de vagues pendant le tumulte chez OpenAI. La rumeur parle en effet d'une hypothétique IA qui serait dotée d'une logique proche de celle d'un être humain et serait capable de résoudre des problèmes mathématiques de base. Le modèle d'IA, appelé Q* (Q-Star), aurait suscité des inquiétudes au sein de la startup, ce qui a conduit au chaos observé dernièrement. Selon la rumeur, l'équipe à l'origine de la découverte, avec à sa tête Sutskever, aurait averti qu'OpenAI devait prendre le temps d'étudier les dangers potentiels du modèle avant de le commercialiser, mais qu'Altman n'était pas de cet avis.

Mais commentant les rumeurs sur le mystérieux projet Q* d'OpenAI, Yann LeCun, lauréat du prix Turing 2018 et responsable de l'IA chez Meta, a déclaré que tout cela est absurde. « Veuillez ignorer le déluge d'absurdités au sujet du projet Q*. L'un des principaux défis pour améliorer la fiabilité du LLM est de remplacer la prédiction autorégressive des jetons par la planification. À peu près tous les meilleurs laboratoires (FAIR, DeepMind, OpenAI, etc.) travaillent sur cela et certains ont déjà publié des idées et des résultats », a déclaré le chercheur français en IA. Le projet Q* serait une tentative visant à apprendre aux modèles d'IA à planifier.

LeCun a ajouté : « il est probable que Q* soit une tentative de planification de la part d'OpenAI . Ils ont pratiquement embauché Noam Brown (de Libratus/poker et de Cicero/Diplomacy) pour travailler sur ce sujet. [Note : je plaide pour une architecture d'apprentissage profond capable de planifier depuis 2016] ». Les chercheurs d'OpenAI auraient décrit le projet Q* comme ce qui se rapproche le plus d'une superintelligence artificielle à l'heure actuelle, mais de nombreux chercheurs indépendants ont remis en cause cette théorie. Selon certains, le projet Q* pourrait simplement faire référence à l'apprentissage Q ou à l'algorithme Q*.

Sophia Kalanovska, cofondatrice de la startup d'IA Tromero, pense que Q* combine les techniques d'apprentissage profond qui sous-tendent ChatGPT avec des règles programmées par les humains. « Je pense que cela est symboliquement très important. D'un point de vue pratique, je ne pense pas que cela va mettre fin au monde. Je pense que la raison pour laquelle les gens croient que Q* va conduire à l'AGI est que, d'après ce que nous avons entendu jusqu'à présent, il semble qu'il combinera les deux côtés du cerveau et sera capable de connaître certaines choses par expérience, tout en étant capable de raisonner sur des faits », a déclaré Kalanovska.

Lors de l'interview, Musk a critiqué une nouvelle fois la direction que prend OpenAI et a suggéré que l'entreprise devrait changer son nom afin de refléter ses nouvelles ambitions. Il a déclaré que la raison d'être d'OpenAI était de créer un contrepoids à Google et DeepMind, qui disposaient à l'époque de deux tiers de tous les talents en matière d'IA et d'un budget et d'une capacité de calcul pratiquement infinis. « Il n'y avait pas de contrepoids. C'était un monde unipolaire », a déclaré Musk. Selon lui, Google ne se souciait pas réellement de la sécurité de l'IA et il a milité pour la création d'OpenAI spécifiquement pour travailler sur ces aspects essentiels.

« C'est ainsi qu'OpenAI a été lancé. Il devait être un logiciel libre. Je l'ai appelé OpenAI en référence à l'open source. Mais il s'agit en réalité d'une source fermée, super fermée. Il devrait être renommé "super closed source for maximum profit AI". Parce que c'est ce qu'il est en réalité. OpenAI est passé d'une fondation open source, un 5123, à une société à but lucratif de 90 milliards de dollars avec des sources fermées. Je ne sais donc pas comment aller d'ici à là », a déclaré Musk. Par le passé, Musk a averti que les entreprises devaient être prudentes avec les technologies impliquant l'IA, car elles pourraient représenter "un danger pour le public et l'humanité".

OpenAI a été fondé par Sam Altman, Elon Musk, Ilya Sutskever, Greg Brockman et d'autres investisseurs. La société a été initialement créée en tant qu'organisation à but non lucratif pour servir l'humanité et offrir des avantages potentiels à la vie moderne. Mais à peine trois ans plus tard, Musk a annoncé sa démission de l'entreprise en 2018 en raison d'un désaccord sur sa direction. Depuis, Musk est devenu l'un des critiques les plus acerbes d'OpenAI et affirme que la startup est devenue de facto une filiale de Microsoft. (Microsoft a investi des milliards de dollars dans OpenAI depuis 2019.) Musk a lancé récemment xAI, une entreprise rivale d'OpenAI.

Interrogé sur l'état d'avancement de ses propres efforts en matière d'IA par rapport à ceux d'OpenAI, de Google et des autres, Musk a répondu : « je suis un peu dans l'embarras parce que je pense que l'IA pourrait changer le monde de manière significative depuis que je suis à l'université, il y a 30 ans. Si je n'ai pas construit l'IA dès le départ, c'est parce que je ne savais pas quel côté de l'épée à double tranchant serait le plus tranchant, le bon ou le mauvais ». xAI a publié le mois dernier Grok, son premier modèle d'IA. Grok tente de s'éloigner de ses concurrents en adoptant "un côté rebelle et audacieux", mais l'initiative ne fait pas l'unanimité.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la théorie de Musk sur le licenciement d'Altman ?
Que pensez-vous de la proposition de Musk selon laquelle OpenAI devrait changer de nom ?
Selon vous, que signifie les récents événements chez OpenAI pour l'avenir de l'IA ?

Voir aussi

Projet Q* : les informations sur la mystérieuse percée en matière d'IA des chercheurs d'OpenAI ne seraient qu'un "déluge d'absurdités", selon des critiques tels que le pionnier de l'IA Yann LeCun

Des chercheurs d'OpenAI auraient envoyé au conseil d'administration sortant une lettre l'avertissant d'une découverte majeure en matière d'IA et de la menace que cela représente pour l'humanité

OpenAI estime que la superintelligence artificielle AGI pourrait arriver dans les 10 prochaines années, mais demande de l'aide pour en contrôler les risques en annonçant un programme de subventions

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kmedghaith
Membre confirmé https://www.developpez.com
Le 30/04/2024 à 9:29
GPT-5 sera beaucoup plus intelligent que GPT-4 et GPT-6 sera beaucoup plus intelligent que GPT-5
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
1  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 30/04/2024 à 12:36
Citation Envoyé par kmedghaith Voir le message
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
Nos données.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/12/2023 à 13:40
Ancienne économie:

La valorisation d'une entreprise était en rapport avec le succès commerciale de cette dernière: Plus elle faisait des bénéfices, plus elle valait chère!

Nouvelle économie:

"OpenAI en pourparlers pour lever de nouveaux fonds pour une valorisation à de 100 milliards de dollars"... Ce qui veut dire? La valeur de l'entreprise repose sur rien! Pas sur son succès, mais simplement sur le nombre de gogos qui sont d'accord de risquer leur fric dans l'affaire...

Quelle économie a le plus de chance de finir dans le mur?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/01/2024 à 7:40
Citation Envoyé par Mathis Lucas Voir le message
L'un des plus gros problèmes de l'absence de raisonnement est que cela rend les grands modèles de langage vulnérables aux hallucinations, aux biais systématiques et d'autres pièges. Cette lacune signifie que l'on ne peut pas faire complètement confiance à l'IA, car elle peut présenter des informations erronées comme étant vraies.
On ne peut faire complètement confiance à une seule source, qu'elle soit informatique, humaine ou journalistique, c'est pour ça qu'il faut recroiser les sources.
Espérer pouvoir se fier à 100% à une IA est illusoire, même si une tonne d'entreprises essayent de vous le vendre.
0  0 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 11/03/2024 à 18:34
Ça ne fait que confirmer la main mise de crosoft sur OAI.
0  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 29/04/2024 à 12:33
"L'Intelligence Artificielle (IA) ne fonctionnera probablement pas"
Pensez-vous que cet avis de Sam Altman est crédible ou pertinent ?

Mais pour lui, l'AI doit arriver à quel but ?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 30/04/2024 à 7:47
Citation Envoyé par Anthony Voir le message
Quel est votre avis sur le sujet ?
ChatGPT fournit de fausses informations sur les personnes, et OpenAI admet qu'elle n'est pas en mesure de les corriger
Cher M. Altman, ce n'est pas parce que vous ne comprenez de moins en moins ce que pense votre IA qu'elle devient de plus en plus intelligente.

Par contre il est assez facile d'affirmer ce qu'il affirme :
La version X diminue les hallucinations
La version X+1 répond mieux à certaines énigmes
La version X+2 évalue la qualité de sa propre réponse

Les piste d'amélioration sont nombreuses s'attaquer à chacune d'elle permet de vanter une révolution à chaque version.
0  0 
Avatar de ParseCoder
Membre averti https://www.developpez.com
Le 01/05/2024 à 8:17
En tout cas ça ne coûte rien de le dire (et surtout ça peut rapporter gros).
0  0 
Avatar de Marc Louis-Seize
Candidat au Club https://www.developpez.com
Le 02/05/2024 à 4:08
Si ils ont créés des IA dans le but de faire des cyborgs intelligent capable de ressentir de la douleur de la tristesse ou de la dépression ou de l'ennui ou une peine d'amour ils sont vraiment cruels et sans cœurs .!
0  0