IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une intéressante théorie du complot expliquerait que le PDG de Quora, Adam D'Angelo, voudrait détruire OpenAI pour sauver Quora
Et serait à l'origine du licenciement de Sam Altman

Le , par Stéphane le calme

0PARTAGES

4  0 
Certains observateurs ont pointé du doigt le rôle trouble d’Adam D’Angelo, PDG de Quora, et l’un des membres indépendants du conseil d’OpenAI. Adam D’Angelo est un ancien collègue et ami de Sam Altman. Mais depuis, leurs relations se seraient détériorées, notamment à cause de la concurrence entre Quora et ChatGPT. Quora est un site web qui permet aux internautes de poser et de répondre à des questions sur divers sujets, tandis que ChatGPT est capable de générer des réponses à partir de n’importe quel texte. Il est donc facile d’imaginer que Quora voit d’un mauvais œil le succès de ChatGPT, qui pourrait menacer son modèle économique et sa popularité. Adam D’Angelo aurait-il profité de sa position au sein du conseil d’OpenAI pour se débarrasser de Sam Altman, et ainsi affaiblir ChatGPT et renforcer Quora ? C'est ce que tentent de faire croire certaines théories du complot, qui n'apportent pourtant aucune preuve formelle pour étayer cette hypothèse..

Dans un nouveau rebondissement dans la saga du licenciement de Sam Altman d'OpenAI, les commentateurs désignent désormais le PDG de Quora, Adam D'Angelo, comme le membre du conseil d'administration d'OpenAI qui a poussé à la destitution d'Altman. Des rapports suggèrent qu'un conflit d'intérêts entre les produits d'IA a conduit D'Angelo à protéger les intérêts de son entreprise par rapport à OpenAI. Sur X/Twitter notamment, plusieurs « théoriciens » pensent qu’Adam D’Angelo, fondateur de Quora et membre du conseil d’administration d’OpenAI, serait celui qui a provoqué le « coup d’État » contre Sam Altman. Quels sont leurs arguments et faut-il leur faire confiance ?

Faut-il accorder du crédit aux théories du complot sur Twitter ? La réponse est évidemment non, surtout lorsqu’elles sont relayées par l’entourage d’Elon Musk (hostile à OpenAI et à Sam Altman). Ceci dit, dans le contexte d’un « coup d’État » orchestré par le conseil d’administration d’une entreprise, il n’est pas étonnant de voir des internautes se transformer en enquêteurs.

L'histoire jusqu'ici

Si vous avez suivi la saga Sam Altman et OpenAI – et qui ne l’a pas fait ? – vous saurez que beaucoup de choses se sont passées en quelques jours seulement. Vendredi, Altman a été démis de ses fonctions de PDG d'OpenAI. Peu de temps après que le conseil d'administration a licencié Sam Altman en tant que PDG d'OpenAI, le co-fondateur et ancien président de la société de recherche en intelligence artificielle, Greg Brockman, a annoncé son départ de l'organisation. Trois chercheurs de premier plan en IA ont également quitté l’entreprise pour suivre Altman.

Depuis lors, la condamnation a été rapide de la part des acteurs du secteur, notamment du fondateur de Google, Eric Schmidt. Microsoft, partenaire de longue date d'OpenAI, a soutenu l'entreprise, mais le PDG Satya Nadella aurait été furieux de ne pas avoir été informé de la décision. Après tout, son entreprise a investi des milliards de dollars dans OpenAI.

Très vite, Nadella a déclaré qu'Altman, Brockman et les chercheurs qui auraient décidé de quitter OpenAI pourraient trouver des emplois chez Microsoft. Altman envisageait également apparemment de créer une nouvelle société, Nadella a déclaré que Microsoft le soutiendrait. Cela n'a pas empêché Altman d'être dans le siège d’OpenAI ce week-end avec un badge visiteur pour négocier un retour.

Bien que cela soit encore une possibilité, l’accent est désormais mis sur qui est à l’origine du licenciement d’Altman et de la fin potentielle d’OpenAI ? S’il semble exagéré de dire que l’ensemble de l’entreprise est menacée, ce n’est pas le cas. Plus de 700 des quelque 770 employés de l'entreprise, dont le scientifique en chef Ilya Sutskever, ont signé une lettre exigeant la démission du conseil d'administration et la réintégration d'Altman sous peine de démissionner pour se rendre chez Microsoft.

Le limogeage surprise de Sam Altman par le conseil d'administration d'OpenAI fait l'objet de nombreuses théories, alors que le conseil d'administration peine encore quelques jours plus tard à justifier sa décision et que la quasi-totalité des salariés menacent de démissionner… Au risque de provoquer l'implosion d'une entreprise évaluée à 90 milliards de dollars quelques jours plus tôt.

Depuis le départ de Sam Altman, un nom circule beaucoup en ligne : celui d'Adam D'Angelo. Qui est-il ? Pourquoi est-il pris pour cible ? Retour sur la théorie qui oppose Quora à OpenAI.


Adam D'Angelo, un membre du conseil d'administration qui n'aimait pas Sam Altman ?

Ancien ami de Mark Zuckerberg, Adam D’Angelo a débuté sa carrière chez Facebook avant que celui-ci ne devienne un réseau social mondialement connu. En 2009, il fonde ensuite Quora, une plateforme où les utilisateurs posent des questions et où d'autres peuvent y répondre. Une sorte de pré-ChatGPT sans intelligence artificielle.

Justement, c'est ce lien qui pose question. Avec ChatGPT, OpenAI pourrait théoriquement détruire Quora. Pourquoi attendre la réponse d’un utilisateur en ligne, si une IA peut dire la même chose, plus en détail, en quelques secondes ?

Le 3 février 2023, Adam D'Angelo a annoncé « Poe », un système de bot pour Quora, alimenté par des modèles OpenAI. C'est sur ce système qu'il mise beaucoup pour relancer son activité, avec des bots spécialistes du sujet.


Cependant, lors du DevDay, la toute première conférence des développeurs d'OpenAI à San Francisco, OpenAI a présenté les GPT, un moyen pour chacun de créer sa propre version du système d'IA conversationnelle populaire. Non seulement vous pouvez créer votre propre GPT pour le plaisir ou la productivité, mais vous pourrez bientôt le publier sur un marché appelé GPT Store... et peut-être même gagner un peu d'argent dans le processus.

« Depuis le lancement de ChatGPT, les gens demandent des moyens de personnaliser ChatGPT pour l'adapter à la manière spécifique dont ils l'utilisent », a indiqué OpenAI dans un communiqué. « Nous avons lancé des instructions personnalisées en juillet qui vous permettent de définir certaines préférences, mais les demandes pour plus de contrôle ont continué à arriver. De nombreux utilisateurs expérimentés conservent une liste d’invites et d’ensembles d’instructions soigneusement conçus, en les copiant manuellement dans ChatGPT. Les GPT font désormais tout cela pour vous ».

Par exemple, dans une capture d'écran de l'interface GPT fournie par OpenAI, le prochain GPT Store affiche des assistants d'IA personnalisés appelés « Writing Coach », « Sous Chef », « Math Mentor » et « Sticker Whiz » disponibles à la sélection. La capture d'écran décrit les GPT comme des assistants conçus pour vous aider à rédiger des commentaires, des recettes, de l'aide aux devoirs et à transformer vos idées en autocollants découpés.


Malheureusement pour Adam D'Angelo, l’annonce des GPT par Sam Altman a rendu Poe obsolète. Il se murmure que Sam Altman aurait oublié de prévenir Adam D’Angelo à l’avance – même si le patron de Quora est plutôt connu pour son approche prudente à l’égard de l’IA. De quoi agacer les deux hommes ?

Une seule chose est sûre : le conseil d'administration d'OpenAI s'est retourné contre Sam Altman. La dernière lettre du conseil d'administration, qui confirmait que Sam Altman ne reviendrait pas, était signée par quatre noms : Adam D'Angelo, Helen Toner, Ilya Sutskever et Tasha McCauley. Ilya Sutskever s'est depuis excusé, affirmant qu'il avait fait le mauvais choix, mais les trois autres n'ont pas pris la parole. Aux dernières nouvelles, Adam D'Angelo pourrait bien être celui qui a déclenché la rébellion contre Sam Altman, même si rien ne le prouve formellement.

Adam D'Angelo est-il victime d'un harcèlement injustifié ?

Reste à savoir pourquoi Adam D’Angelo se comporterait ainsi. La vengeance aurait du sens, mais détruire OpenAI juste pour sauver votre propre entreprise serait un très mauvais pari, étant donné l'énorme potentiel d’OpenAI. D’Angelo veut peut-être simplement nuire à Sam Altman, mais est-ce une raison suffisante pour sacrifier 90 milliards de dollars et 770 employés ? Rappelons aussi que d'autres théories circulaient ce week-end et qu'Adam D'Angelo pourrait être visé pour rien.

Si Adam D'Angelo est resté pour le moment silencieux, il a retweeté le message d'Amjad Masad, un de ses amis qui le défend. « L’idée selon laquelle il est devenu fou ou vindicatif à cause d’un chevauchement de fonctionnalités ou de toute autre rumeur semble tout simplement fausse. Il est préférable de s'abstenir de tout jugement jusqu'à ce que davantage d'informations soient disponibles » indique-t-il, alors que Twitter et plusieurs salariés d'OpenAI attaquent son nom depuis le limogeage de Sam Altman.

Sous ce tweet, on retrouve une réponse d’Elon Musk, qui indique qu'une déclaration officielle d’Adam D’Angelo est nécessaire. La présence de Musk dans ce débat, qui appelle indirectement tous ses fans à attaquer D’Angelo, incite encore plus à la prudence. Internet aime avoir un bourreau et Elon Musk aime être lié au chaos. Même si Adam D’Angelo a participé au complot contre Sam Altman, il ne mérite peut-être pas cet acharnement.

Une seule chose est sûre : OpenAI fonctionne mal. Le comportement de son conseil d’administration n’est pas digne d’une pépite technologique et plusieurs alertes auraient dû être déclenchées plus tôt pour éviter la catastrophe. Si Sam Altman revient et que le conseil d'administration démissionne, l'entreprise devra envisager des changements importants, donnant peut-être plus de contrôle à Microsoft. En attendant, Elon Musk et son entourage se frottent les mains, prédisant la disparition complète d'OpenAI d'ici 12 mois (et donc l'avènement de Grok, son concurrent). Encore une fois, cela peut être une exagération.

Source : Adam D'Angelo, vidéo dans le texte

Et vous ?

Quelle est votre opinion sur le rôle d’Adam D’Angelo dans cette affaire ? Est-il un acteur impartial ou un rival malveillant ?
Quora et ChatGPT sont-ils des services complémentaires ou concurrents ?
Accordez-vous du crédit à cette théorie ? Pourquoi ou pourquoi pas ?
Que pensez-vous de la réaction d'Elon Musk qui demande à ce qu'Adam D'Angelo s'exprime publiquement à ce sujet ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 12:00
Citation Envoyé par Stéphane le calme Voir le message

Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.

Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Je dis bravo quand le capital-risque s'occupe du sort des enfants dans le monde...
0  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 15:16
On devrait lui dire : "oh calme toi ! Non tu n'as pas tous les droits.".
0  0 
Avatar de Matthieu_26
Membre régulier https://www.developpez.com
Le 22/11/2023 à 19:35
Ça te barbera - épisode 69

Scène 1 : Dans le salon
Satya est en sanglot dans toute la scène...

Satya : (soupir fort) - Franchement, sur ce coup là, tu m'as déçu, Sam... T'était-il vraiment impossible d'agir autrement que tel que tu aurais pu le faire autrement ?

Sam : Ecoutes… Satya

Satya : Réponds moi, Sam...

Sam: Satya, j'ai pas peur de te le dire en face : Si j'ai agi ainsi, c'est parce que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : Bien sûr que je te comprends ! Mais, où veux-tu en venir ?

Sam : Je veux en venir que si j'ai agit de la sorte, c'est que…

Satya : C'est que quoi ?

Sam : C'est que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : C'était donc ça ?

Sam : Ouais !

Satya : Sam , comprends moi, mets toi donc à ma place !

Sam : Que je me mette à ta place ?

Satya : Ouais !

Sam : Ok ! (étouffé)
La suite dans le prochain épisode...
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/12/2023 à 13:40
Ancienne économie:

La valorisation d'une entreprise était en rapport avec le succès commerciale de cette dernière: Plus elle faisait des bénéfices, plus elle valait chère!

Nouvelle économie:

"OpenAI en pourparlers pour lever de nouveaux fonds pour une valorisation à de 100 milliards de dollars"... Ce qui veut dire? La valeur de l'entreprise repose sur rien! Pas sur son succès, mais simplement sur le nombre de gogos qui sont d'accord de risquer leur fric dans l'affaire...

Quelle économie a le plus de chance de finir dans le mur?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/01/2024 à 7:40
Citation Envoyé par Mathis Lucas Voir le message
L'un des plus gros problèmes de l'absence de raisonnement est que cela rend les grands modèles de langage vulnérables aux hallucinations, aux biais systématiques et d'autres pièges. Cette lacune signifie que l'on ne peut pas faire complètement confiance à l'IA, car elle peut présenter des informations erronées comme étant vraies.
On ne peut faire complètement confiance à une seule source, qu'elle soit informatique, humaine ou journalistique, c'est pour ça qu'il faut recroiser les sources.
Espérer pouvoir se fier à 100% à une IA est illusoire, même si une tonne d'entreprises essayent de vous le vendre.
0  0 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 11/03/2024 à 18:34
Ça ne fait que confirmer la main mise de crosoft sur OAI.
0  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 29/04/2024 à 12:33
"L'Intelligence Artificielle (IA) ne fonctionnera probablement pas"
Pensez-vous que cet avis de Sam Altman est crédible ou pertinent ?

Mais pour lui, l'AI doit arriver à quel but ?
0  0