IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Sam Altman aura du mal à convaincre le monde qu'il travaille pour le bien de l'humanité et non pour celui des actionnaires. Il n'est qu'un dirigeant de Big Tech parmi d'autres »,
Selon un critique

Le , par Mathis Lucas

2PARTAGES

9  0 
La promesse visant à créer une IA responsable et centrée sur les valeurs humaines pourrait n'être rien d'autre que de la poudre aux yeux. C'est du moins ce qu'a laissé entendre Dave Lee, chroniqueur technologique américain de Bloomberg Opinion, dans une analyse du chaos au sein d'OpenAI. Il explique que contrairement aux apparences, les événements qui ont suivi l'éviction de Sam Altman de son poste de PDG d'OpenAI ont révélé qu'il était beaucoup plus préoccupé par la satisfaction des actionnaires que par le développement d'une IA qui profitera à l'humanité. Il affirme qu'Altman n'est plus qu'un dirigeant d'une grande entreprise technologique comme d'autres PDG.

Altman ne serait qu'un autre dirigeant de la technologie à la quête de profits

Évincé de son poste de PDG par le conseil d'administration d'OpenAI vendredi, Sam Altman, 38 ans, a trouvé rapidement refuge chez Microsoft où il est attendu pour diriger une nouvelle équipe de recherche sur l’IA. Le cofondateur de Twitch Emmett Shear, quant à lui, a confirmé sa nomination en tant que nouveau PDG d'OpenAI. Il succède à Mira Murati, directrice technique, qui a été la PDG par intérim pendant environ deux jours. Quoi qu'il en soit, les choses sont allées si vite que jusqu'à présent, les raisons exactes à l'origine de l'éviction d'Altman par le conseil d'administration restent inconnues ; toute la communication autour est ambigüe.


Dans son analyse de la situation, Dave Lee fait remarquer que les récents événements au sein d'OpenAI ont tout de même le mérite d'avoir révélé qu'OpenAI, en particulier Altman, servait davantage l'agenda des actionnaires au lieu de développer une IA au service de l'humanité comme il l'avait promis. « En tant qu'employé de Microsoft, Altman aura beaucoup plus de mal à convaincre le monde et les régulateurs qu'il travaille pour le bien de l'humanité, et non pour celui des actionnaires. Il n'est plus qu'un dirigeant de Big Tech comme les autres. Mais ne nous voilons pas la face, il l'a toujours été », a déclaré Lee dans un article d'opinion publié lundi.

Selon le chroniqueur, en se dépêchant pour embaucher Altman, la préoccupation immédiate du PDG de Microsoft, Satya Nadella, n'est pas de savoir comment rétablir des contrôles et des équilibres éthiques dans le développement de l'IA, mais plutôt de savoir la vitesse à laquelle tout le monde peut se remettre au travail pour développer l'IA. D'autres analystes pensent que Nadella s'est pressé pour trouver un poste à Altman chez Microsoft pour empêcher les concurrents de faire des offres à l'ex-PDG d'OpenAI. D'ailleurs, Khosla Ventures, l'un des principaux investisseurs d'OpenAI, s'est déjà dit prêt à soutenir la prochaine entreprise d'Altman.

Mais si Altman est chez Microsoft, il est peu probable que cela arrive. « Plus de 500 employés d'OpenAI menacent de quitter le navire et de le rejoindre. Satya Nadella doit penser qu'il rêve : en l'espace d'un week-end mouvementé, il est passé d'une situation où l'investissement de 10 milliards de dollars de l'entreprise dans OpenAI était menacé à une situation où il a réussi à renforcer la position du géant du logiciel dans le secteur de l'IA. Les investisseurs sont d'accord, et les actions de la société basée à Redmond, dans l'État de Washington, ont atteint un niveau record », a déclaré Lee. Microsoft a une grande longueur d'avance sur les autres investisseurs.

Les employés d'OpenAI ont adressé au reste du conseil d'administration une lettre ouverte dans laquelle ils réclament sa démission et le retour d'Altman. Dans le cas contraire, ils démissionneront et rejoindront Altman chez Microsoft. Selon les derniers décomptes, la lettre avait été signée par plus de 95 % des employés. Dans la lettre, les employés insistent sur le fait qu'ils démissionneront si les membres restants du conseil d'administration ne le font pas, si de nouveaux membres du conseil d'administration ne sont pas nommés et si Altman n'est pas réintégré. Selon certains employés, un climat de chaos règnerait au sein de l'entreprise.

Greg Brockman, cofondateur d'OpenAI, a été également démis de ses fonctions de président du conseil d'administration, après quoi il a rapidement démissionné. Il a été embauché par Microsoft en même temps qu'Altman. Selon Lee, si les employés d'OpenAI les suivent, Microsoft aura réussi l'acquisition la plus stupéfiante de l'histoire de la Silicon Valley. Ben Thompson, un analyste, a déclaré : « Microsoft vient d'acquérir OpenAI en dépensant zéro dollar et ne risque aucun procès antitrust ».

IA responsable : un simple battage médiatique de la part des organisations ?

Selon Lee, Altman a exposé à tous la supercherie derrière l'engagement des principaux acteurs de la course à l'IA à développer une IA responsable. Pour faire simple, l'IA responsable est une pratique qui consiste à concevoir, développer et déployer l'IA avec de bonnes intentions afin de responsabiliser les employés et les entreprises, et d'avoir un impact équitable sur les clients et la société. Cela permet aux entreprises de susciter la confiance et de développer l'IA en toute confiance. Microsoft, par exemple, a défini six principes qui régissent une IA responsable : équité, fiabilité et sécurité, confidentialité et sécurité, inclusion, transparence et responsabilité.

Mais d'après Lee, l'IA responsable qui profite à l'humanité n'est pas la préoccupation première de Microsoft ni celle des autres acteurs de la course à l'IA. Il est soutenu par plusieurs critiques. « Enfin ! Quelqu'un l'a dit clairement. Altman n'est qu'un autre "cadre de la technologie" qui cherche à se faire de l'argent, à lui et à ses copains, sur le dos de véritables chercheurs révolutionnaires. Les titres comme "Helping Humanity with AGI" n'étaient que des salades », a écrit un critique. Un autre a souligné que cela était visible depuis au moins 2019, année où OpenAI a abandonné son statut d'organisation à but non lucratif et est devenu une entreprise très fermée.

L'on ignore les raisons exactes à l'origine de la décision du conseil d'administration d'OpenAI. Toutefois, la rumeur indique qu'Altman et Ilya Sutskever, cofondateur et scientifique en chef d'OpenAI, sont en désaccord sur la rapidité de la commercialisation de l'IA générative et sur la manière de réduire les éventuels préjudices pour le public ; ce désaccord aurait atteint son paroxysme lors de la toute première journée des développeurs d'OpenAI qui a eu lieu ce mois-ci. À l'échelle de l'industrie, cela reflète une divergence d'opinions fondamentale sur la sécurité entre deux camps qui développent l'IA et qui réfléchissent à ses impacts potentiels sur la société.

D'un côté, il y a ceux qui, comme Altman, pensent que le développement rapide et, surtout, le déploiement public de l'IA sont essentiels pour tester et perfectionner la technologie. De l'autre côté, certains chercheurs affirment que la voie la plus sûre consiste à développer et à tester l'IA en laboratoire pour s'assurer qu'elle est propre à la consommation humaine. Ces derniers craignent que les logiciels d'IA deviennent incontrôlables et conduisent à une catastrophe, ce qui inquiète les travailleurs de la technologie qui suivent un mouvement social appelé "altruisme efficace" et qui pensent que les progrès dans le domaine de l'IA devraient profiter à l'humanité.

Sutskever fait partie de ceux qui partagent ces craintes, tandis qu'Altman serait favorable à une commercialisation plus rapide de l'IA. D'ailleurs, les rapports indiquent que Sutskever a joué le rôle de meneur dans la décision brutale d'évincer Altman, exploitant ce désaccord stratégique. Toutefois, évoquant le départ d'Altman dans un communiqué, le conseil d'administration a simplement déclaré : « son départ fait suite à un processus d’examen délibéré par le conseil d’administration, qui a conclu qu’il n’était pas toujours franc dans ses communications avec le conseil d’administration, ce qui a empêché ce dernier d’exercer ses responsabilités ».

« Je pense que les gens n'ont pas encore réalisé que toute cette histoire de sécurité de l'IA est une fumisterie. Ce n'est qu'un voile de plus, comme l'altruisme efficace, pour obtenir de bonnes relations publiques et faire carrière. Les seules personnes qui croient vraiment à cette histoire de sécurité de l'IA sont celles qui n'ont aucune connaissance ou expertise technique », a écrit un autre critique à propos des déclarations des entreprises sur la nécessité de développer une IA responsable.

Altman est soutenu par un puissant groupe d'investisseurs en capital-risque

« Le conseil d'administration plus prudent a pu penser, peut-être naïvement, que les freins et contrepoids intégrés dans la structure de gouvernance unique d'OpenAI - un conseil d'administration à but non lucratif supervisant une entité à but lucratif - lui donneraient la capacité de tempérer les instincts d'Altman. Ils se sont trompés, et au moins l'un d'entre eux, le scientifique en chef et cofondateur Ilya Sutskever, dit aujourd'hui regretter d'avoir plongé l'entreprise dans le désarroi », écrit Lee. Il a déclaré qu'OpenAI n'est pas différent des géants de la Tech qui l'ont précédé. Le soutien dont bénéficie Altman semble lié à l'agenda des investisseurs.

Au cours de l'année écoulée, beaucoup se sont sentis rassurés (bien que perplexes) par le fait que Altman, contrairement aux fondateurs qui l'ont précédé, ne détenait pas d'actions dans OpenAI. La raison invoquée était d'éliminer tout sentiment que l'appât du gain était le facteur motivant la recherche de profits, tout en soumettant Altman à ce qui avait été considéré comme un niveau de responsabilité plus élevé que la normale. « Il s'est avéré que rien de tout cela n'avait d'importance : malgré les avertissements successifs, les événements de ce week-end prouvent que le culte du fondateur est bien vivant dans la Silicon Valley », note le chroniqueur.

D'après Lee, ce week-end, nous avons peut-être vu une autre facette de cet homme de 38 ans, un soupçon d'arrogance qui laisse entrevoir la dynamique qui règne au sein du conseil d'administration d'OpenAI. En visite dans les bureaux de l'entreprise dimanche, Altman a pris le temps de partager sur les médias sociaux une photo de lui avec un badge destiné aux visiteurs d'OpenAI. « Cette photo, ainsi que les rapports faisant état de "délais" réguliers pour que le conseil d'administration réponde à ses exigences suggèrent un homme qui a vraiment l'impression d'être OpenAI, plutôt qu'une personne travaillant pour l'entreprise », a fait remarquer Lee.

Dans une interview avec CNBC lundi, Nadella a déclaré que ce type de changement brutal, notamment l'éviction d'Altman, était inacceptable. Interrogé sur la nécessité pour Microsoft de siéger au conseil d'administration d'OpenAI, il n'a pas répondu par l'affirmative, mais a affirmé que les choses doivent changer. Nadella a déclaré : « il est clair que quelque chose doit changer au niveau de la gouvernance. Nous aurons un bon dialogue avec leur conseil d'administration à ce sujet, et nous suivrons l'évolution de la situation ». D'un autre côté, certains investisseurs d'OpenAI envisageraient de poursuivre en justice le conseil d'administration de la société.

Des sources au fait de ces discussions ont déclaré que les investisseurs travaillent avec des conseillers juridiques pour étudier leurs options. Il n'a pas été précisé dans l'immédiat si ces investisseurs allaient poursuivre OpenAI en justice. Les investisseurs craignent de perdre des centaines de millions de dollars qu'ils ont investis dans OpenAI, un joyau de la couronne dans certains de leurs portefeuilles, avec l'effondrement potentiel de la startup la plus en vue dans le secteur en pleine croissance de l'IA générative. Les sources familières avec le dossier indiquent que Microsoft détient jusqu'à 49 % de la société d'exploitation à but lucratif d'OpenAI.

D'autres investisseurs et employés contrôlent 49 %, et 2 % appartiennent à la société mère à but non lucratif d'OpenAI. Les investisseurs en capital-risque détiennent généralement des sièges au conseil d'administration ou des droits de vote dans les entreprises de leur portefeuille. Mais ce n'est pas le cas avec OpenAI. Le laboratoire d'IA est contrôlé par sa société mère à but non lucratif qui, selon le site Web d'OpenAI, a été créée pour bénéficier à "l'humanité, et non aux investisseurs d'OpenAI". Cependant, cet argument a été remis en cause au cours de ces dernières années, des critiques exacerbées par les événements de ces derniers jours.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des allégations du chroniqueur technologique ?
Sam Altman n'est-il qu'un dirigeant de Big Tech comme les autres ?
Que pensez-vous des promesses visant à développer une IA responsable ?
Ces promesses ne sont-elles qu'un battage médiatique ou une vaste fumisterie ?
Que pensez-vous du soutien des investisseurs d'OpenAI à l'ancien PDG Sam Altman ?
Pensez-vous qu'OpenAI développe l'IA pour qu'elle profite à l'humanité comme il le prétend ?
Altman a-t-il été évincé parce qu'il défendait plus les intérêts des investisseurs que la vision d'OpenAI ?
Que vous inspirent les événements qui ont lieu depuis quelques jours au sein d'OpenAI ?

Voir aussi

Les investisseurs d'OpenAI envisagent de poursuivre le conseil d'administration après le licenciement brutal du PDG, Sam Altman

Sam Altman s'efforcerait toujours de redevenir le PDG d'OpenAI et Satya Nadella, PDG de Microsoft, appelle à des changements clés dans la gouvernance de la startup d'IA

Le conseil d'administration d'OpenAI a retardé la promesse de l'IA en imposant des restrictions et des contrôles sur les projets estime Vinod Khosla, l'un des premiers investisseurs

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 12:00
Citation Envoyé par Stéphane le calme Voir le message

Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.

Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Je dis bravo quand le capital-risque s'occupe du sort des enfants dans le monde...
0  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 15:16
On devrait lui dire : "oh calme toi ! Non tu n'as pas tous les droits.".
0  0 
Avatar de Matthieu_26
Membre régulier https://www.developpez.com
Le 22/11/2023 à 19:35
Ça te barbera - épisode 69

Scène 1 : Dans le salon
Satya est en sanglot dans toute la scène...

Satya : (soupir fort) - Franchement, sur ce coup là, tu m'as déçu, Sam... T'était-il vraiment impossible d'agir autrement que tel que tu aurais pu le faire autrement ?

Sam : Ecoutes… Satya

Satya : Réponds moi, Sam...

Sam: Satya, j'ai pas peur de te le dire en face : Si j'ai agi ainsi, c'est parce que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : Bien sûr que je te comprends ! Mais, où veux-tu en venir ?

Sam : Je veux en venir que si j'ai agit de la sorte, c'est que…

Satya : C'est que quoi ?

Sam : C'est que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : C'était donc ça ?

Sam : Ouais !

Satya : Sam , comprends moi, mets toi donc à ma place !

Sam : Que je me mette à ta place ?

Satya : Ouais !

Sam : Ok ! (étouffé)
La suite dans le prochain épisode...
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/12/2023 à 13:40
Ancienne économie:

La valorisation d'une entreprise était en rapport avec le succès commerciale de cette dernière: Plus elle faisait des bénéfices, plus elle valait chère!

Nouvelle économie:

"OpenAI en pourparlers pour lever de nouveaux fonds pour une valorisation à de 100 milliards de dollars"... Ce qui veut dire? La valeur de l'entreprise repose sur rien! Pas sur son succès, mais simplement sur le nombre de gogos qui sont d'accord de risquer leur fric dans l'affaire...

Quelle économie a le plus de chance de finir dans le mur?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/01/2024 à 7:40
Citation Envoyé par Mathis Lucas Voir le message
L'un des plus gros problèmes de l'absence de raisonnement est que cela rend les grands modèles de langage vulnérables aux hallucinations, aux biais systématiques et d'autres pièges. Cette lacune signifie que l'on ne peut pas faire complètement confiance à l'IA, car elle peut présenter des informations erronées comme étant vraies.
On ne peut faire complètement confiance à une seule source, qu'elle soit informatique, humaine ou journalistique, c'est pour ça qu'il faut recroiser les sources.
Espérer pouvoir se fier à 100% à une IA est illusoire, même si une tonne d'entreprises essayent de vous le vendre.
0  0 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 11/03/2024 à 18:34
Ça ne fait que confirmer la main mise de crosoft sur OAI.
0  0