OpenAI fait face à la fuite de ses cerveaux et les départs ont atteint un niveau alarmant
Que se passe-t-il chez OpenAI ? Il est difficile de répondre à la question avec précision, mais l'on peut dire sans risquer de se tromper que le laboratoire d'IA de San Francisco traverse une phase trouble. Depuis le drame de novembre dernier, où Sam Altman a été éjecté du poste de PDG d'OpenAI pendant un week-end, l'ambiance au sein de la startup semble avoir profondément changé et nous n'avons jamais appris la véritable raison pour laquelle cela s'est produit en premier lieu. Depuis cet épisode, les désaccords internes semblent s'être intensifiés et les démissions au sein d'OpenAI ont désormais atteint un niveau critique.
Ilya Sutskever, cofondateur et ancien directeur scientifique d'OpenAI, a démissionné la semaine dernière. Son départ semblait inévitable, étant donné qu'il avait été à la tête de la campagne qui avait abouti à l'éviction d'Altman du poste de PDG pendant une courte période en novembre. Néanmoins, son départ et son importance pour l'entreprise ont soulevé des questions parmi les observateurs quant à l'avenir d'OpenAI. Personne ne sait exactement pourquoi tant de talents quittent OpenAI. Il peut s'agir de divergences philosophiques sur l'orientation du produit. Il peut s'agir d'offres d'emploi lucratives de la part de rivaux.
Ou il est tout simplement question de l'épuisement professionnel qui accompagne souvent les horaires et le rythme de travail d'une startup. Mais selon certains analystes, il devient de plus en plus évident que cela a à voir avec la direction prise par Altman en matière de partenariats et de produits. Voici une liste non exhaustive des départs les plus médiatisés de ces derniers mois :
- Ilya Sutskever : il était à la fois cofondateur et scientifique en chef d'OpenAI, ainsi que le chef de l'équipe Superalignment. Compte tenu de son rôle dans la tentative de coup d'État d'Altman, il est difficile de savoir s'il a été gentiment mis à la porte ou s'il est parti de son propre chef ;
- Jan Leike : il était chargé (avec Sutskever) de veiller à ce que les systèmes d'IA d'OpenAI soient alignés sur les intérêts humains et avait été désigné l'année dernière par le magazine Time comme l'une des 100 personnes les plus influentes dans le domaine de l'IA ;
- Evan Morikawa : il était ingénieur en chef chez OpenAI. Il a quitté l'entreprise la semaine dernière après trois ans et demi d'activité. Il prévoit de lancer une nouvelle initiative avec des vétérans de Boston Dynamics et DeepMind ;
- Daniel Kokotajlo : ancien membre de l'équipe de sécurité d'OpenAI, il a quitté l'entreprise en février. Il a depuis critiqué publiquement OpenAI, déclarant qu'il avait quitté l'entreprise, car il ne croyait plus qu'elle se comporterait de manière responsable à l'ère de l'AGI ;
- William Saunders : il a quitté OpenAI en février, abandonnant son poste de manager au sein de l'équipe Superalignment. Dans des messages sur le forum LessWrong, Saunders a refusé d'expliquer les raisons de son départ ;
- Leopold Aschenbrenner : il était aussi membre de l'équipe Superalignment, travaillant avec Leike et Sutskever. Son départ n'était cependant pas une démission. Il a été licencié en avril pour avoir prétendument divulgué des informations à des journalistes ;
- Andrey Karpathy : membre fondateur d'OpenAI, Karpathy avait déjà quitté l'organisation une fois, mais était revenu en février 2023. Cela n'a duré qu'un an, lorsqu'il est reparti, bien que dans un tweet il ait déclaré que ce n'était pas le résultat d'un événement, d'un problème ou d'un drame particulier ;
- Logan Kilpatrick : il a quitté le navire il y a deux mois pour un poste chez Google. Il a confié que les changements intervenus au sein de l'entreprise étaient en partie à l'origine de son départ, soulignant que la croissance explosive avait modifié la façon de travailler d'OpenAI.
- Pavel Izmailov : le poste d'Izmailov aurait été supprimé en même temps que celui d'Aschenbrenner. Tous deux étaient de solides alliés de Sutskever. Ni son nom ni celui d'Aschenbrenner ne figuraient sur la liste des employés qui ont manifesté leur soutien à Altman lors du chaos de novembre ;
- Diane Yoon : elle a quitté OpenAI au début du mois de mai, démissionnant de son poste de vice-présidente du personnel. Aucune raison n'a été donnée pour ce départ, mais Yoon était l'un des cadres les plus anciens de l'entreprise ;
- Chris Clark : il a aussi quitté OpenAI au début du mois. Il était responsable des initiatives stratégiques et à but non lucratif.
Après les départs de Sutskever et Leike, OpenAI a dissous l'équipe Superalignment. Avec leur départ, l'entreprise venait de perdre ses deux principaux chercheurs en matière de sécurité de l'IA et deux des cadres qui fait d'elle un leader incontesté du secteur de l'IA. Il n'y avait donc plus de raison de garder l'équipe et de toute façon, des rapports ont récemment signalé qu'OpenAI semblait de moins en moins se soucier de la sécurité des produits. La rumeur indique qu'Altman donne désormais la priorité au lancement de nouveaux produits et la réalisation de profits. Une orientation qui pourrait expliquer ces nombreux départs.
La même rumeur avait circulé en novembre lorsqu'Altman a été éjecté du poste de PDG. Il était apparu que les "idées" d'Altman entraient en conflit avec les principes fondateurs de l'entreprise, ce qui avait poussé l'ancien conseil d'administration à le licencier. Une déclaration indiquait qu'Altman avait pris des initiatives tout en laissant le conseil d'administration dans le flou. Le conseil d'administration porterait une réflexion sérieuse sur les conséquences d'un développement trop rapide de l'IA (ou l'AGI). Mais il y a toujours un nuage de mystère autour des véritables raisons du licenciement d’Altman. La question reste donc posée.
Néanmoins, il est important de souligner que les récents partenariats d'OpenAI suscitent des préoccupations et donnent du poids aux allégations selon lesquelles Altman court désormais après les profits. OpenAI a annoncé un partenariat avec NewsCorp, une société américaine de médias. Un critique de ce partenariat a écrit : « il s'agit de l'une des pires sociétés de médias avec laquelle il est possible de travailler. La propagande de droite est leur modèle d'affaires, orientant les discussions politiques et utilisant tous les moyens nécessaires pour faire avancer un récit, allant jusqu'à nier l'élection présidentielle de 2020 à travers Fox News ».
OpenAI est accusé d'avoir tiré un trait sur tous les principes fondateurs de l'entreprise
L'annonce de cet accord intervient quelque temps après qu'un document ayant fait l'objet de fuite a révélé qu'OpenAI prévoit d'inclure des placements prioritaires pour les marques dans les conversations avec ChatGPT. L'initiative est appelée "Preferred Publishers Program" (PPP). Une partie du document indique : « les membres du programme bénéficient d'un placement prioritaire et d'une expression plus riche de la marque dans les conversations de chat, et leur contenu bénéficie d'un traitement des liens plus proéminent. À travers ce programme, OpenAI offre également des conditions financières sous licence aux éditeurs ».
Par ailleurs, d'autres sources allèguent qu'OpenAI, avec le soutien de son principal bailleur de fonds Microsoft, fait du lobbying contre le développement de l'IA open source. OpenAI, créé à l'origine par Elon Musk et compagnie pour développer une IA sûre en adoptant une approche entièrement ouverte, a pris un virage à 180° depuis 2019, à la suite d'un investissement d'un milliard de dollars par Microsoft. Depuis, OpenAI s'est renfermé, évoquant des raisons commerciales, et s'oppose systématiquement au développement de l'IA en open source. Cette position lui a valu des critiques et une action en justice de la part d'Elon Musk.
Outre ces faits, la nouvelle orientation d'OpenAI avec des assistants vocaux dotés de voix émotives suscite également d'importantes préoccupations. GPT-4o, le dernier produit de l'entreprise, intègre un assistant vocal appelé Sky dont la voix est étrangement similaire à celle de l'actrice Scarlett Johansson. Sky rappelle notamment la performance de l'actrice dans le film de science-fiction Her paru en 2023. Selon les critiques de GPT-4o, il s'agit d'une orientation potentiellement dangereuse qui consiste à développer une voix hautement émotionnelle et la capacité de lire le bien-être émotionnel d'une personne au son de sa voix.
Les analystes affirment que cela devrait également constituer une préoccupation en matière de protection de la vie privée. La rumeur indique que Sutskever était opposé à cette approche, affirmant que l'IA n'avait pas grand-chose à gagner en apprenant la modalité vocale, si ce n'est la persuasion. Avant les récents développements, OpenAI a ouvert sa technologie aux militaires au début de l'année en supprimant discrètement de sa politique d'utilisation la partie qui interdisait les cas d'utilisation militaires de son IA. Il s'agit d'une décision lourde de conséquences à cause de l'utilisation croissante de l'IA dans les conflits.
Cette semaine, des documents ayant fait l'objet de fuite ont révélé des tactiques agressives à l'égard d'anciens employés. Ces documents portent la signature d'Altman et visent à faire taire les anciens employés. Ils révèlent notamment que si les employés souhaitant quitter l'entreprise refusaient de signer "une clause de sortie" dans un délai relativement court, ils étaient menacés de perdre leurs droits acquis dans l'entreprise. Il s'agirait d'une disposition très sévère qui ne serait pas courante dans la Silicon Valley. Cette clause mettait beaucoup de pressions sur les travailleurs qui partaient et sur ceux qui envisageaient de le faire.
« Avec tout cela, je pense que ce pour quoi les gens partent est assez clair. Personnellement, j'aurais quitté l'entreprise avec seulement la moitié de ces décisions. Je pense qu'ils se dirigent dans une direction très dangereuse et ils n'auront pas mon soutien à l'avenir malheureusement. C'est triste de voir où Sam va avec tout ça », a écrit un critique d'OpenAI. Il y a un flou complet qui entoure ce qui se passez chez OpenAI et l'entreprise est en train de perdre les cerveaux qui ont fait d'elle l'acteur incontournable qu'elle est devenue dans le domaine de l'IA. À l'heure où son avenir s'assombrit, les rivaux pourraient repêcher ces talents.
Musk semble être un grand fan de Sutskever. Ce denier pourrait donc être tenté de rejoindre la nouvelle entreprise xAI créée par Musk pour faire de l'ombre à OpenAI. Mais rien n'est sûr et Sutskever a déclaré vouloir se concentrer sur des projets personnels. D'autres rivaux tels que Meta, Google et Anthropic pourraient également se positionner. Ni Altman ni OpenAI ne laisse rien transparaître, mais pour un observateur externe, il semble évident que l'entreprise est en crise.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la situation qui prévaut actuellement chez OpenAI ?
Partagez-vous l'avis selon lequel l'avenir de l'entreprise commence à devenir incertain ?
Pensez-vous que tous les départs de ces cerveaux sont liés à la direction qu'Altman donne à OpenAI ?
Que pensez-vous des récentes polémiques dans lesquelles OpenAI est engouffré ? Est-ce le signe d'une décadence ?
Que pensez-vous des produits d'IA d'OpenAI en général ? Quid des préoccupations qui entourent ces produits, notamment Sky ?
Voir aussi
Une fuite pourrait avoir révélé comment OpenAI propose des partenariats avec les éditeurs, dans le cadre d'une initiative appelée Preferred Publishers Program
OpenAI supprime discrètement l'interdiction d'utiliser ChatGPT à des fins "militaires et de guerre", une décision lourde de conséquences à cause de l'utilisation croissante de l'IA dans les conflits
OpenAI : des documents divulgués révèlent des tactiques agressives à l'égard d'anciens employés avec la signature de Sam Altman, menaçant de les priver de leurs options d'achats s'ils ne signent pas un document