IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ancien membre du conseil d'administration d'OpenAI révèle ce qui a conduit à la brève éviction de Sam Altman :
Mensonge sur son lien avec le fonds de capital-risque OpenAI Startup Fund, manipulations, etc.

Le , par Patrick Ruiz

1PARTAGES

11  0 
Le 17 novembre 2023, le conseil d'administration d'OpenAI a choqué tout le monde en évinçant de façon soudaine le cofondateur et PDG Sam Altman. Il avait supervisé l'un des lancements d'application à la croissance la plus rapide de l'histoire avec ChatGPT. Quelle pouvait donc être la raison de cette éviction soudaine ? Helen Toner dévoile certaines raisons parmi lesquelles figurent le mensonge sur son lien avec le fonds de capital-risque Startup Fund.

Selon Mme Toner, l'une des raisons pour lesquelles le conseil d'administration a cessé de faire confiance à M. Altman est qu'il ne lui a pas dit qu'il était propriétaire du fonds de démarrage OpenAI ; une autre raison est qu'il a donné des informations inexactes sur les processus de sécurité de l'entreprise « à de multiples occasions ». En outre, Mme Toner affirme avoir été personnellement visée par le PDG après avoir publié un document de recherche qui l'avait irrité. « Sam a commencé à mentir aux autres membres du conseil d'administration pour tenter de m'évincer du conseil », explique-t-elle.

Après que deux cadres ont parlé directement au conseil d'administration de leurs propres expériences avec Altman, décrivant une atmosphère toxique à OpenAI, l'accusant d’ « abus psychologique » et fournissant des preuves qu'Altman « mentait et était manipulateur dans différentes situations », le conseil d'administration a finalement décidé de passer à l'action.

Toner cite le lancement de ChatGPT lui-même comme un exemple de l'absence de contrôle réel du conseil d'administration sur la société. « Lorsque ChatGPT a été lancé en novembre 2022, le conseil d'administration n'a pas été informé à l'avance. Nous avons appris l'existence de ChatGPT sur Twitter », explique Toner.

Des révélations cohérentes avec celle de journalistes sur les mensonges et manipulations de Sam Altman sur plusieurs aspects

Le rapport y relatif fait état de ce que la raison pour laquelle la relation entre le conseil d'administration et Altman s'était détériorée n'était pas parce que le conseil se dirigeait trop vite vers l'intelligence artificielle générale, mais qu'il avait tenté d'exclure un membre du conseil d'administration, Helen Toner, et que cela s'était retourné contre lui.

Ci-dessous un extrait de la publication du média (l'emphase est notre) :

Certains membres du conseil d’administration d’OpenAI avaient trouvé en Altman un opérateur incroyablement glissant. Par exemple, plus tôt cet automne, il avait confronté un membre, Helen Toner, directrice du Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown, pour avoir co-écrit un article qui apparemment critiquait OpenAI pour « attiser les flammes du battage médiatique sur l'IA ». Toner s'était défendue (même si elle s'est ensuite excusée auprès du conseil d'administration de ne pas avoir prévu comment le journal pourrait être perçu). Altman a commencé à contacter individuellement d'autres membres du conseil d'administration pour la remplacer. Lorsque ces membres ont comparé leurs notes sur les conversations, certains ont estimé qu’Altman les avait présentés à tort comme soutenant le retrait de Toner. « Il les montait les uns contre les autres en mentant sur ce que pensaient les autres », m’a dit la personne familière avec les discussions du conseil d’administration. « Des choses comme ça se produisaient depuis des années ». (Une personne proche du point de vue d’Altman a déclaré qu’il reconnaissait avoir été « brutal dans la manière dont il avait tenté de faire destituer un membre du conseil d’administration », mais qu’il n’avait pas tenté de manipuler le conseil d’administration.)

Altman était connu comme un combattant d’entreprise avisé. Cela avait bien servi OpenAI dans le passé : en 2018, il avait bloqué une offre impulsive d’Elon Musk, l’un des premiers membres du conseil d’administration, de reprendre l’organisation. La capacité d’Altman à contrôler l’information et à manipuler les perceptions – ouvertement et secrètement – avait incité les investisseurs en capital-risque à se faire concurrence en investissant dans diverses startups. Ses compétences tactiques étaient tellement redoutées que, lorsque quatre membres du conseil d’administration – Toner, D’Angelo, Sutskever et Tasha McCauley – ont commencé à discuter de son renvoi, ils étaient déterminés à garantir qu’il serait pris par surprise. « Il était clair que, dès que Sam le saurait, il ferait tout ce qu'il pouvait pour saper le conseil d'administration », a déclaré la personne proche de ces discussions.

Les membres mécontents du conseil d’administration ont estimé que la mission d’OpenAI les obligeait à être vigilants à l’égard de l’IA et ils pensaient qu’ils ne pourraient pas accomplir cette tâche avec Altman en place. « La mission est multiforme : garantir que l’A.I. profite à toute l’humanité, mais personne ne peut le faire s’il ne peut pas détenir le PDG responsable », a déclaré une autre personne au courant de la réflexion du conseil d’administration.

Altman voyait les choses différemment. La personne familière avec son point de vue a déclaré que lui et le conseil d’administration s’étaient engagés dans « un débat de conseil d’administration tout à fait normal et sain », mais que certains membres du conseil d’administration n’étaient pas familiarisés avec les normes commerciales et étaient intimidés par leurs responsabilités. Cette personne a noté : « À chaque pas que nous nous rapprochons de l’A.G.I., tout le monde prend environ dix points de folie. »

Il est difficile de dire si les membres du conseil d’administration étaient plus terrifiés par les ordinateurs sensibles ou par le fait qu’Altman devienne un voyou. En tout cas, ils ont décidé de devenir eux-mêmes des voyous. Et ils ont ciblé Altman avec la foi erronée que Microsoft adhérerait à leur soulèvement.


C’est pour ces raisons qu’OpenAI vient de retirer à Sam Altman sa qualité de propriétaire de son fonds de capital-risque Startup Fund

OpenAI a modifié la structure de gouvernance de son fonds de capital-risque qui soutient les startups dans le domaine de l'IA, de sorte que son directeur général Sam Altman ne possède ni ne contrôle plus le fonds, selon un document déposé auprès de la Securities and Exchange Commission (SEC) des États-Unis.

Le changement, documenté dans le dépôt du 29 mars, est intervenu après que la propriété d'Altman sur OpenAI Startup Fund ait suscité des froncements de sourcils en raison de sa structure inhabituelle - tout en étant commercialisé comme une société de capital-risque, le fonds a été levé par Altman auprès de partenaires limités extérieurs et c'est lui qui a pris les décisions d'investissement. OpenAI a déclaré qu'Altman n'avait pas d'intérêt financier dans le fonds malgré sa participation.


Dans un communiqué, un porte-parole d'OpenAI a déclaré que la structure initiale du fonds en tant que General Partner (GP) était un arrangement temporaire, et que "ce changement apporte plus de clarté".

L'OpenAI Startup Fund investit 175 millions de dollars collectés auprès de partenaires d'OpenAI tels que Microsoft, bien qu'OpenAI elle-même ne soit pas un investisseur.

Le contrôle du fonds a été transféré à Ian Hathaway, un partenaire du fonds depuis 2021, selon la déclaration. Altman ne sera donc plus un General Partner du fonds.

OpenAI a déclaré que M. Hathaway avait supervisé le programme d'accélération du fonds et dirigé les investissements dans des entreprises telles que Harvey, Cursor et Ambience Healthcare.

Altman, ancien président de l'accélérateur de startups Y Combinator, a déjà attiré l'attention sur ses intérêts d'investissement tentaculaires en dehors d'OpenAI, de la startup de cryptomonnaie Worldcoin à la société de fusion Helion Energy, ainsi que sur ses activités de collecte de fonds au Moyen-Orient.

OpenAI a déclaré qu'une enquête indépendante menée à la suite de l'éviction spectaculaire de M. Altman de la société en novembre dernier a conclu qu'il n'avait commis aucun acte répréhensible en ce qui concerne la sécurité des produits ou les finances d'OpenAI.

Source : Helen Toner

Et vous ?

Quelle analyse faites-vous de ces éléments ?
Sam Altman accusé de monter les membres du conseil les uns contre les autres, cela vous semble-t-il crédible ? Si oui, cela justifie-t-il la décision du conseil ?

Voir aussi :

Sam Altman est le propriétaire du fonds de capital-risque d'OpenAI. Lancé pour investir dans d'autres projets IA, il n'est ni la propriété d'OpenAI, ni celle de sa fondation à but non lucratif affilié

Sam Altman cherche des milliers de milliards de dollars pour financer des puces d'IA, et discute de projets "extrêmement ambitieux" avec des investisseurs, dont les Émirats arabes unis

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2024 à 12:03
Citation Envoyé par Jules34 Voir le message
C'est hallucinant non ?P
Ben, non.

Le monsieur prépare juste sa défense quand il finira devant un tribunal parce que son "IA machin" a entrainé des catastrophes.

Rappelez-vous du charmant fondateur de Facebook Mark Zuckerberg mis en accusation par des sénateurs lors d'auditions organisées par les autorités américaines: Il a beaucoup pleuré, a dit qu'il ne savait pas et... s'est excusé platement de ne pas avoir fait plus pour éviter les dérives...

Et après? Ben rien! Il a déposé sa cravate et son costard (cela servira pour les prochaines auditions), il a remis son jeans et son T-shirt sale puis a continué comme avant sa vie de milliardaire
5  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 16/10/2024 à 15:09
Tant que les réponses ne seront pas plus fiables qu’actuellement, pourquoi payer ?
3  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 9:50
C'est hallucinant non ? C'est comme si le Président de Ferrrari expliquait calmement qu'il ne savait même plus comment ses voitures avancent mais que c'est pas grave tant qu'elles avancent !

Je caricature mais c'est un peu flippant quand même.

Et je pense tout de suite au début de l'IA, comme le walk out d'amazon, qui en fait sont juste des milliers de travailleurs sous payés en Inde, donc effectivement vu sous cet angle c'est mieux si le PDG dit qu'il sait même plus comment ça fonctionne, il risque moins gros
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/09/2024 à 4:06
Citation Envoyé par kain_tn Voir le message
Il existe encore, ce type là? Je croyais que la bulle des IA génératives était en train d'éclater et que les investisseurs commençaient enfin à douter et à retirer leurs billes... Oh wait! C'est pour ça qu'il continue de raconter n'importe quoi
Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.

BàT et Peace & Love
2  0 
Avatar de d_d_v
Membre éprouvé https://www.developpez.com
Le 17/10/2024 à 10:14
Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
2  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 08/06/2024 à 14:30
Cédric Villani (https://www.thinkerview.com/justine-...ouveau-maitre/) dit que c'est un des cas de l'histoire où on arrive de manière imprévue à de très bons résultats empiriquement alors même que la théorie est en retard sur la pratique.
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 09/09/2024 à 9:12
Citation Envoyé par OuftiBoy Voir le message
Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.
Oui mais cette version est quand même 100fois plus puissante que celle d'avant, il faut à la fois faire pas trop - pour réussir à perpétrer la révolution - et promettre un gros chiffre pour que ça reste une révolution.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/09/2024 à 15:55
Citation Envoyé par totozor Voir le message
Oui mais cette version est quand même 100fois plus puissante que celle d'avant, il faut à la fois faire pas trop - pour réussir à perpétrer la révolution - et promettre un gros chiffre pour que ça reste une révolution.
Et je le vois mal dire que la suivante sera moins puissante que celle d'avant. Ce mec c'est un vendeur, et on vend de l'IA exactement de la même manière qu'une poudre à laver, et le mec en blouse blanche pour faire sérieux et clinique, qui te répête pour la milièmme foisque suite à une étude auprès d'utilisateurs, on clairement remarquer que grâce à machin-truc-bidule, la lessive Y lave mieux de 50% à basse température. Faut pas demander comme ça lavait mal avant

BàT et peace and love.
1  0 
Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 15/09/2024 à 20:35
Citation Envoyé par shenron666 Voir le message
Désolé, je suis mauvais en maths, 100 fois de la merde ça fait combien ?
Faut demander à ChatGépéto.

Faut qu'il fasse attention Mr Altman, si il continue il va brasser plus de vent que le nuage magique de Sangoku.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 17/10/2024 à 13:24
Citation Envoyé par d_d_v Voir le message
Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
Le problème c'est que dans Intelligence Artificielle, seul le second mot est exact, l'autre n'est qu'un fantasme
1  0