IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Satya Nadella est furieux de l'éviction brutale de Sam Altman comme PDG d'OpenAI, d'après des rapports
Selon lesquels Microsoft fait désormais pression pour son retour

Le , par Patrick Ruiz

2PARTAGES

9  0 
Microsoft fait pression sur OpenAI pour que Sam Altman revienne à sa tête comme PDG, d’après des rapports dont ceux de l’investisseur Dan Ives. De toutes les parties perdantes si Altman ne revient pas, Microsoft est la plus importante. D'un autre côté, s'il revient, Microsoft pourrait être encore mieux positionné, selon Dan Ives.

Si Sam Altman ne peut pas être convaincu de revenir à OpenAI, Microsoft se retrouvera en difficulté. Mais si Altman refuse de revenir et crée à la place une nouvelle startup dans le domaine de l'intelligence artificielle, il pourra certainement la remplir avec les personnes qui connaissent les secrets de la technologie dont OpenAI est la détentrice. Il est également probable qu'il cherche un autre investisseur ou partenaire dans le domaine du cloud. L'intelligence artificielle générative a besoin d'une puissance de calcul massive et spécialisée pour fonctionner, en particulier pour des millions de clients. Google ou Amazon essaieraient très certainement de lui proposer des offres qu'il ne pourrait refuser.


Mais ce n'est pas seulement l'argent investi et les gains de cet investissement qui seraient perdus pour Microsoft. Microsoft a intégré la technologie OpenAI dans la plupart de ses principaux produits. Au début du mois, la société a fait plus de 100 annonces d'intégration de la technologie OpenAI dans ses outils d'IA, ses modèles d'IA et ses outils dans le nuage. Elle a intégré Copilot - son assistant de chat basé sur GPT – dans plusieurs de ses services. Microsoft a en sus réduit, ou carrément arrêté, divers autres projets d'IA internes afin de s'appuyer sur la technologie OpenAI.

Altman poussé par Microsoft ainsi que d’autres investisseurs et employés serait lancé sur des négociations pour revenir à OpenAI en tant que PDG. L’actuel conseil d'administration de l'organisation à but non lucratif devrait démissionner dans le cadre de l'accord d’encadrement de son retour comme PDG. Grosso modo, les confidences obtenues de tiers bien introduits font état de ce qu’Altman et d’autres cadres supérieurs qui ont démissionné devraient retrouver leurs postes.


OpenAI, a annoncé le licenciement de son cofondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d’administration sur plusieurs aspects de son activité. Altman, qui était à la tête de l’entreprise depuis 2019, est accusé d’avoir dissimulé des informations sur les coûts, les revenus, les partenariats et les risques liés à son produit phare, ChatGPT, un chatbot avancé capable de générer des réponses humaines à partir de n’importe quelle question.

Dans un article sur le blog officiel d'OpenAI, la société écrit que le départ d'Altman fait suite à un « processus d'examen délibératif par le conseil d'administration » qui a conclu qu'Altman « n'était pas toujours franc dans ses communications » avec les autres membres du conseil d'administration, « entravant sa capacité à exercer ses responsabilités ». Et de continuer en disant « Le conseil d’administration n’a plus confiance en sa capacité à continuer à diriger OpenAI ».

Le licenciement d’Altman survient pour le moins de manière inattendue. La société a organisé la semaine dernière sa première conférence de développeurs, OpenAI DevDay, animée par Altman. Altman a pris la parole jeudi lors de la conférence de coopération économique Asie-Pacifique et d'un événement à Oakland, en Californie.

L’annonce a surpris les employés, dont beaucoup ont appris l’éviction soudaine grâce à une annonce interne et au blog public de l’entreprise. OpenAI a programmé une réunion d'urgence avec tous le vendredi après-midi pour discuter de l'actualité avec les employés.

Altman est considéré comme la principale voix dans le domaine de l'IA depuis que son entreprise a lancé ChatGPT en novembre 2022. Le chatbot génératif d'IA a compté plus de 100 millions d'utilisateurs en moins d'un an. Après avoir publié ChatGPT l'année dernière, Altman a été mis sous les projecteurs. Il a été l’un des plus ardents partisans de l’intelligence artificielle, mais il a également lancé des appels en faveur d’une réglementation et averti que la technologie comporte des risques dans la mesure où elle remodèle la société. Il a témoigné devant le Congrès américain en mai sur la forme que devrait prendre la législation sur l’IA.

Altman considère l'IAG comme la prochaine phase d'évolution de son entreprise en plein essor.

« À l'heure actuelle, les gens [disent] 'vous avez ce laboratoire de recherche, vous avez cette API [logiciel], vous avez le partenariat avec Microsoft, vous avez ce truc ChatGPT, maintenant il y a une boutique GPT.' Mais ce ne sont pas vraiment nos produits », a déclaré Altman au Financial Times. « Ce sont des canaux vers notre seul produit, qui est l’intelligence, l’intelligence magique dans le ciel. Je pense que c’est de cela que nous parlons ».

Lorsqu'il lui a été demandé si Microsoft continuerait à investir davantage dans ces entreprises, Altman a répondu au FT : « Je l'espère ».

Altman a contribué à la création de l'entreprise en 2015, initialement en tant qu'organisation à but non lucratif dotée d'un milliard de dollars provenant de bailleurs de fonds de premier plan, dont Elon Musk, Peter Thiel et le co-fondateur de LinkedIn, Reid Hoffman. Altman et Musk ont été co-présidents avec pour objectif « de faire progresser l’intelligence numérique de la manière la plus susceptible de bénéficier à l’humanité dans son ensemble, sans contrainte par la nécessité de générer un retour financier ». En 2019, cependant, OpenAI s’est remodelé autour d’un modèle de « profit plafonné » avec Altman comme PDG.

Le conseil d'OpenAI reconnait les contributions de Sam Altman

Dans un communiqué, le conseil d’administration a déclaré : « OpenAI a été délibérément structuré pour faire avancer notre mission : garantir que l’intelligence artificielle générale profite à toute l’humanité. Le conseil reste pleinement engagé à servir cette mission. Nous sommes reconnaissants pour les nombreuses contributions de Sam à la création et à la croissance d’OpenAI. Dans le même temps, nous pensons qu’un nouveau leadership est nécessaire à mesure que nous progressons. En tant que responsable des fonctions de recherche, de produits et de sécurité de l’entreprise, Mira est exceptionnellement qualifiée pour assumer le rôle de PDG par intérim. Nous avons la plus grande confiance dans sa capacité à diriger OpenAI pendant cette période de transition ».

Le conseil d'administration d'OpenAI est composé du scientifique en chef d'OpenAI, Ilya Sutskever, des administrateurs indépendants, Adam D'Angelo, PDG de Quora, de l'entrepreneur technologique Tasha McCauley et d'Helen Toner, du Georgetown Center for Security and Emerging Technology.

Source : Dan Ives

Et vous ?

Partagez-vous les avis selon lesquels Microsoft a le plus à perdre en cas de refus d'Altman de revenir à la tête d'OpenAI comme PDG ?
Que pensez-vous du licenciement de Sam Altman par OpenAI ? Le manque de franchise de Sam Altman évoqué par le conseil comme cause de son renvoi, un prétexte ou une réelle justification ?
Quelles sont les conséquences du départ de Altman pour l’avenir de OpenAI et de ChatGPT ?
Que pensez-vous de la décision de Greg Brockman de quitter l'entreprise après avoir été viré du conseil d'administration ?
Quels sont les avantages et les inconvénients de ChatGPT, le chatbot avancé développé par OpenAI ? Avez-vous déjà essayé de l’utiliser ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de melka one
Membre expérimenté https://www.developpez.com
Le 21/11/2023 à 15:12
ils sont malin chez Microsoft.......j'ai rien dit
1  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 21/11/2023 à 2:06
Et toi, Ilya ? Sam Altman est le Jules César de l'IA

0  0 
Avatar de Aspartame
Membre confirmé https://www.developpez.com
Le 21/11/2023 à 19:47
a été ( indicatif )
0  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 12:00
Citation Envoyé par Stéphane le calme Voir le message

Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.

Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Je dis bravo quand le capital-risque s'occupe du sort des enfants dans le monde...
0  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 15:16
On devrait lui dire : "oh calme toi ! Non tu n'as pas tous les droits.".
0  0 
Avatar de Matthieu_26
Membre régulier https://www.developpez.com
Le 22/11/2023 à 19:35
Ça te barbera - épisode 69

Scène 1 : Dans le salon
Satya est en sanglot dans toute la scène...

Satya : (soupir fort) - Franchement, sur ce coup là, tu m'as déçu, Sam... T'était-il vraiment impossible d'agir autrement que tel que tu aurais pu le faire autrement ?

Sam : Ecoutes… Satya

Satya : Réponds moi, Sam...

Sam: Satya, j'ai pas peur de te le dire en face : Si j'ai agi ainsi, c'est parce que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : Bien sûr que je te comprends ! Mais, où veux-tu en venir ?

Sam : Je veux en venir que si j'ai agit de la sorte, c'est que…

Satya : C'est que quoi ?

Sam : C'est que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : C'était donc ça ?

Sam : Ouais !

Satya : Sam , comprends moi, mets toi donc à ma place !

Sam : Que je me mette à ta place ?

Satya : Ouais !

Sam : Ok ! (étouffé)
La suite dans le prochain épisode...
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/12/2023 à 13:40
Ancienne économie:

La valorisation d'une entreprise était en rapport avec le succès commerciale de cette dernière: Plus elle faisait des bénéfices, plus elle valait chère!

Nouvelle économie:

"OpenAI en pourparlers pour lever de nouveaux fonds pour une valorisation à de 100 milliards de dollars"... Ce qui veut dire? La valeur de l'entreprise repose sur rien! Pas sur son succès, mais simplement sur le nombre de gogos qui sont d'accord de risquer leur fric dans l'affaire...

Quelle économie a le plus de chance de finir dans le mur?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/01/2024 à 7:40
Citation Envoyé par Mathis Lucas Voir le message
L'un des plus gros problèmes de l'absence de raisonnement est que cela rend les grands modèles de langage vulnérables aux hallucinations, aux biais systématiques et d'autres pièges. Cette lacune signifie que l'on ne peut pas faire complètement confiance à l'IA, car elle peut présenter des informations erronées comme étant vraies.
On ne peut faire complètement confiance à une seule source, qu'elle soit informatique, humaine ou journalistique, c'est pour ça qu'il faut recroiser les sources.
Espérer pouvoir se fier à 100% à une IA est illusoire, même si une tonne d'entreprises essayent de vous le vendre.
0  0