IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

William Saunders dit avoir démissionné d'OpenAI parce que la vision est similaire à celle derrière le Titanic :
S'empresser de lancer le plus gros navire qui va finir par couler faute de sécurité

Le , par Patrick Ruiz

23PARTAGES

7  0 
William Saunders fait partie de la longue liste d’employés qui continuent de quitter le navire OpenAI depuis quelques mois déjà. Il a quitté OpenAI en février, abandonnant son poste de manager au sein de l'équipe Superalignment. Il n’avait jusque-là pas révélé les raisons de sa démission. C’est désormais chose faite avec une remarque qui touche à l’ensemble de la filière intelligence artificielle dans sa globalité : les entreprises négligent l’aspect sécurité pour s’assurer d’arriver sur le marché avec la plus « grosse IA. »

Il a pour cela utilisé une analogie : « La vision chez OpenAI est similaire à celle derrière le Titanic : s’empresser de lancer le plus gros navire qui va finir par couler faute de sécurité. »



Les flops initiaux des moutures de Bing et Microsoft Edge animées par ChatGPT illustrent le propos de l’ex-chercheur chez OpenAI

Lors des premiers retours d’expérience Bing a affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population sur la planète Mars. La situation avait soulevé la question de savoir si la montée en puissance de l’intelligence artificielle ne va pas plutôt amener les humains à travailler plus dur pour lutter contre la désinformation.



Le tableau faisait suite à une mise en garde de Steve Wozniak – cofondateur d’Apple : « Le problème est que l’IA fait de bonnes choses pour nous, mais elle peut faire d'horribles erreurs étant donné qu’elle ne sait pas ce qu'est l'humanité. »

Même son de cloche avec Bard dans ses tentatives de positionnement comme moteur de réponses

Au mois de février de l’année précédente, Google a annoncé son chatbot AI Bard. Mais le bot n'a pas pris un bon départ, les experts notant que Bard a fait une erreur factuelle dans sa toute première démo.

Un GIF partagé par Google montrait Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard proposa une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire. »



Y faisant suite un certain nombre d'astronomes sur Twitter avaient souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.


La controverse autour du terme Full Self Driving dont Tesla fait usage illustre à souhait l’empressement des entreprises à aller sur le marché avec des « intelligences artificielles » qui finissent par faire couler le navire

Full Self-Driving (FSD) s’entend conduite entièrement autonome. Full Self-Driving est aussi le nom donné par Tesla à son programme d’essais visant à atteindre la conduite entièrement autonome classée au niveau 5 sur l’échelle de classification de la SAE. L’appellation faisait déjà l’objet de controverses compte tenu des incidents dans lesquels les véhicules du constructeur se sont retrouvés impliqués depuis 2020 – période de lancement de la bêta du mode Full Self-Driving. Elle l’est de plus en plus avec la publication de récentes vidéos qui montrent des Teslas avec la fonction de conduite entièrement autonome en train de créer des dégâts.

Un agent de la police de Fullerton enquêtait sur un accident mortel vers minuit près des avenues Orangethorpe et Courtney. L'officier gérait la circulation et des fusées de détresse avaient été placées sur la route. L'agent se tenait à l'extérieur de son véhicule de patrouille, dont les feux de détresse étaient allumés et a réussi à s'écarter avant que le conducteur d'une Tesla bleue ne percute sa voiture. Aucun policier n'a été blessé dans l'accident. Le conducteur de la Tesla affirme qu'il conduisait le véhicule en mode de conduite autonome tout en utilisant son téléphone portable, selon le rapport de police. Il est resté sur les lieux et a coopéré à l'enquête.



C’est in incident qui faisait suite à un autre dans lequel une Tesla se trouve à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier.

C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.

« Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.


L'accident s'est produit dans la matinée du 8 mai. M. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.

C’est en raison de ces politiques à controverse que des entreprises comme OpenAI connaissent une fuite de leurs cerveaux

  • Ilya Sutskever : il était à la fois cofondateur et scientifique en chef d'OpenAI, ainsi que le chef de l'équipe Superalignment. Compte tenu de son rôle dans la tentative de coup d'État d'Altman, il est difficile de savoir s'il a été gentiment mis à la porte ou s'il est parti de son propre chef ;
  • Jan Leike : il était chargé (avec Sutskever) de veiller à ce que les systèmes d'IA d'OpenAI soient alignés sur les intérêts humains et avait été désigné l'année dernière par le magazine Time comme l'une des 100 personnes les plus influentes dans le domaine de l'IA ;
  • Evan Morikawa : il était ingénieur en chef chez OpenAI. Il a quitté l'entreprise la semaine dernière après trois ans et demi d'activité. Il prévoit de lancer une nouvelle initiative avec des vétérans de Boston Dynamics et DeepMind ;
  • Daniel Kokotajlo : ancien membre de l'équipe de sécurité d'OpenAI, il a quitté l'entreprise en février. Il a depuis critiqué publiquement OpenAI, déclarant qu'il avait quitté l'entreprise, car il ne croyait plus qu'elle se comporterait de manière responsable à l'ère de l'AGI ;
  • Leopold Aschenbrenner : il était aussi membre de l'équipe Superalignment, travaillant avec Leike et Sutskever. Son départ n'était cependant pas une démission. Il a été licencié en avril pour avoir prétendument divulgué des informations à des journalistes ;
  • Andrey Karpathy : membre fondateur d'OpenAI, Karpathy avait déjà quitté l'organisation une fois, mais était revenu en février 2023. Cela n'a duré qu'un an, lorsqu'il est reparti, bien que dans un tweet il ait déclaré que ce n'était pas le résultat d'un événement, d'un problème ou d'un drame particulier ;
  • Logan Kilpatrick : il a quitté le navire il y a deux mois pour un poste chez Google. Il a confié que les changements intervenus au sein de l'entreprise étaient en partie à l'origine de son départ, soulignant que la croissance explosive avait modifié la façon de travailler d'OpenAI.
  • Pavel Izmailov : le poste d'Izmailov aurait été supprimé en même temps que celui d'Aschenbrenner. Tous deux étaient de solides alliés de Sutskever. Ni son nom ni celui d'Aschenbrenner ne figuraient sur la liste des employés qui ont manifesté leur soutien à Altman lors du chaos de novembre ;
  • Diane Yoon : elle a quitté OpenAI au début du mois de mai, démissionnant de son poste de vice-présidente du personnel. Aucune raison n'a été donnée pour ce départ, mais Yoon était l'un des cadres les plus anciens de l'entreprise ;
  • Chris Clark : il a aussi quitté OpenAI au début du mois. Il était responsable des initiatives stratégiques et à but non lucratif.

La même rumeur avait circulé en novembre lorsqu'Altman a été éjecté du poste de PDG. Il était apparu que les "idées" d'Altman entraient en conflit avec les principes fondateurs de l'entreprise, ce qui avait poussé l'ancien conseil d'administration à le licencier. Une déclaration indiquait qu'Altman avait pris des initiatives tout en laissant le conseil d'administration dans le flou. Le conseil d'administration porterait une réflexion sérieuse sur les conséquences d'un développement trop rapide de l'IA (ou l'AGI). Mais il y a toujours un nuage de mystère autour des véritables raisons du licenciement d’Altman. La question reste donc posée.

Néanmoins, il est important de souligner que les récents partenariats d'OpenAI suscitent des préoccupations et donnent du poids aux allégations selon lesquelles Altman court désormais après les profits. OpenAI a annoncé un partenariat avec NewsCorp, une société américaine de médias. Un critique de ce partenariat a écrit : « il s'agit de l'une des pires sociétés de médias avec laquelle il est possible de travailler. La propagande de droite est leur modèle d'affaires, orientant les discussions politiques et utilisant tous les moyens nécessaires pour faire avancer un récit, allant jusqu'à nier l'élection présidentielle de 2020 à travers Fox News ».

Source : William Saunders

Et vous ?

Est-ce tous ces chercheurs qui ne servent à rien ou c’est OpenAI qui devient un danger via les orientation de Sam Altman ?
Partagez-vous l’analogie selon laquelle les entreprises de la filière intelligence artificielle s’apparentent à des constructeurs qui s’empressent chacun de lancer le plus gros navire qui finira par couler faute de sécurité ?

Voir aussi :

Une fuite pourrait avoir révélé comment OpenAI propose des partenariats avec les éditeurs, dans le cadre d'une initiative appelée Preferred Publishers Program

OpenAI supprime discrètement l'interdiction d'utiliser ChatGPT à des fins "militaires et de guerre", une décision lourde de conséquences à cause de l'utilisation croissante de l'IA dans les conflits

OpenAI : des documents divulgués révèlent des tactiques agressives à l'égard d'anciens employés avec la signature de Sam Altman, menaçant de les priver de leurs options d'achats s'ils ne signent pas un document

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Eric80
Membre éclairé https://www.developpez.com
Le 09/07/2024 à 15:51
Il y a peut-être aussi une autre raison bassement pécuniaire: tout ces beaux cerveaux n'ont ils pas décroché le jackpot en tant qu'employés d OpenAI? Leurs stocks-options les ont tous rendu millionnaires, non? On peut bien quitter le bateau qd on reçoit qques millions de cash!
3  0