IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Mort suspecte d'un lanceur d'alerte d'OpenAI : ses parents ne croient pas qu'il se soit suicidé et exigent une seconde autopsie
Relançant le débat sur la protection des lanceurs d'alerte dans le secteur tech

Le , par Stéphane le calme

8PARTAGES

8  0 
Un drame entouré de mystère secoue la communauté technologique. Les parents d’un ancien employé d’OpenAI expriment leurs doutes quant aux circonstances de sa mort, initialement déclarée comme un suicide. Suchir Balaji, devenu lanceur d'alerte concernant les pratiques de l'entreprise en matière de données, a été retrouvé mort dans son appartement à San Francisco le 26 novembre 2024. Il était cité comme témoin dans des affaires judiciaires contre OpenAI comme ayant des « documents pertinents » sur la violation présumée des droits d'auteur par la startup. Suchir Balaji a dénoncé publiquement ce qu'il appelle « la collecte massive et abusive des données » effectuée par OpenAI dans le cadre de la formation de ses modèles d'IA et s'est interrogé sur la légalité de cette pratique.

La mort tragique, à la fin du mois dernier, de l'ancien chercheur d'OpenAI, Suchir Balaji, retrouvé mort dans son appartement de Lower Haight à la suite d'un suicide apparent, suscite un peu plus d'intrigue.

Suchir Balaji avait récemment dénoncé l'utilisation par OpenAI d'œuvres protégées par le droit d'auteur pour entraîner son modèle d'intelligence artificielle ChatGPT, dans une interview publiée en octobre par le New York Times. Outre les problèmes juridiques liés à la consommation de matériel protégé par des droits d'auteur, Balaji a déclaré au Times qu'il ne s'agissait pas non plus d'un « modèle durable pour l'écosystème de l'internet dans son ensemble ».

Le 26 novembre, deux jours avant Thanksgiving, Balaji a été retrouvé mort dans son appartement de Buchanan Street. Le médecin légiste a conclu à un suicide et la police de San Francisco a déclaré qu'il n'y avait « aucune preuve d'acte criminel ».

La mère de Balaji, Poornima Ramarao, qui vit dans la région de la baie, a déclaré cette semaine au Bay Area News Group qu'elle et son mari « exigent une enquête approfondie » sur la mort de leur fils. Ils ne croient pas qu'il se serait suicidé et affirment que rien dans son état mental ne laissait présager une telle éventualité.

« Personne ne croit qu'il aurait pu faire cela », a déclaré madame Ramarao au groupe de presse. La mère explique que son mari et elle avaient parlé à leur fils pour la dernière fois le 22 novembre, lors d'un appel téléphonique de 10 minutes au cours duquel il n'avait rien indiqué de grave. Il avait dit qu'il sortait pour aller dîner.

Des circonstances troubles

Né en Floride et élevé dans la Bay Area, Balaji a été un prodige dès son plus jeune âge, a déclaré sa mère. Il prononçait son nom à 3 mois ; à 18 mois, il me demandait « d'allumer une lampe pour me remonter le moral » et pouvait reconnaître des mots à 20 mois, a-t-elle ajouté.

Balaji semble avoir un don pour la technologie, les mathématiques et l'informatique. Il a remporté des trophées et s'est fait connaître, notamment lors des Olympiades informatiques des États-Unis d'Amérique en 2016.

En 2020, il est allé travailler pour OpenAI, estimant que l'engagement de l'entreprise à fonctionner comme une organisation à but non lucratif était admirable, selon sa mère. Son opinion sur l'entreprise s'est détériorée en 2022, alors qu'il était chargé de recueillir des données sur Internet pour le programme GPT-4 de l'entreprise, a rapporté le New York Times. Ce programme analysait le texte de la quasi-totalité de l'internet afin d'entraîner son programme d'intelligence artificielle.

Madame Ramarao a déclaré qu'elle n'était pas au courant de la décision de son fils d'exprimer publiquement ses inquiétudes au sujet d'OpenAI jusqu'à ce que le journal publie son interview. Si elle s'est immédiatement inquiétée de sa décision (allant jusqu'à lui demander de consulter un avocat spécialisé dans les droits d'auteur) elle s'est également déclarée fière du courage de son fils.

Il n'a cessé de m'assurer : « Maman, je ne fais rien de mal, va voir l'article. Je dis simplement, à mon avis, qu'il n'y a rien de mal là-dedans », a déclaré madame Ramarao, elle-même ancienne employée de Microsoft qui a travaillé sur son programme de cloud computing Azure. « Je l'ai soutenu. Je ne l'ai pas critiqué. Je lui ai dit : « Je suis fière de toi, parce que tu as tes propres opinions et que tu sais ce qui est bien et ce qui est mal ».

Après avoir quitté l'entreprise, Balaji a décidé de créer une association à but non lucratif, centrée sur l'apprentissage automatique et les neurosciences, a déclaré madame Ramarao. Il s'est déjà entretenu avec au moins un investisseur en capital-risque pour obtenir un financement de départ. « Je lui demande, par exemple, comment il va gagner sa vie », a déclaré madame Ramarao. Elle se souvient que son fils a tenté à plusieurs reprises d'apaiser les inquiétudes concernant ses finances, en suggérant que « l'argent n'est pas important pour moi - je veux offrir un service à l'humanité ».

Balaji semblait également avoir un emploi du temps chargé. Il a fêté ses 26 ans lors d'une randonnée dans les îles Catalina avec plusieurs amis du lycée. Ce type de voyage était monnaie courante pour lui : en avril, il était parti avec plusieurs amis en Patagonie et en Amérique du Sud. Balaji a parlé à ses parents pour la dernière fois le 22 novembre, lors d'un appel téléphonique de 10 minutes qui a porté sur son récent voyage et qui s'est terminé par l'évocation du dîner.

« Il était très heureux », a déclaré Ramarao. « Il s'est éclaté. Il a passé l'un des meilleurs moments de sa vie ».

Ramarao se souvient d'avoir appelé son fils peu après midi le 23 novembre, mais elle a dit qu'il avait sonné une fois et qu'il était tombé sur la messagerie vocale. Estimant qu'il était occupé avec des amis, elle n'a pas essayé de se rendre à son appartement avant le 25 novembre, date à laquelle elle a frappé mais n'a pas obtenu de réponse. Elle dit avoir appelé les autorités le soir même, mais un centre de répartition de la police lui aurait dit qu'il n'y avait pas grand-chose à faire ce jour-là. Elle a fait un suivi le 26 novembre et la police de San Francisco a retrouvé le corps de Balaji dans son appartement.

Ramarao a déclaré qu'elle n'a été informée de la mort de son fils que lorsqu'une civière est apparue devant l'appartement de Balaji. Elle n'a été autorisée à entrer que le lendemain.

« Je ne pourrai jamais oublier cette tragédie », a déclaré madame Ramarao. « Mon cœur s'est brisé ».

Elle a remis en question l'enquête menée par les autorités sur la mort de son fils, affirmant que la police de San Francisco avait classé l'affaire et l'avait confiée au bureau du médecin légiste du comté dans l'heure qui a suivi la découverte du corps de Balaji. Elle a déclaré qu'elle et son mari avaient depuis demandé une seconde autopsie du corps de Balaji. Elle a refusé de divulguer les documents issus de cette autopsie. Son avocat, Phil Kearney, a refusé de commenter les résultats de l'autopsie indépendante de la famille.


Suchir Balaji et sa maman, Poornima Ramarao

L'attente de la vérité

La seconde autopsie pourrait devenir un point pivot dans cette affaire, apportant peut-être des réponses sur les causes réelles de cette tragédie. Pour l’instant, la famille espère que cette démarche permettra de lever le voile sur des zones d’ombre. « Nous ne voulons qu’une chose : la vérité », conclut le père du défunt, visiblement ému.

Cette affaire, déjà très médiatisée, pourrait avoir des répercussions importantes, non seulement pour OpenAI, mais aussi pour les standards de gouvernance et d’éthique dans l’industrie technologique. En attendant, l’attention demeure focalisée sur les résultats de la nouvelle autopsie et sur les éventuelles révélations à venir.

La mort de Balaji a provoqué une onde de choc dans la Silicon Valley et dans le secteur de l'intelligence artificielle.

Il s'est retrouvé sous les feux de la rampe à la fin du mois d'octobre lorsqu'il a accusé son ancien employeur, OpenAI, d'avoir enfreint la loi fédérale sur les droits d'auteur en siphonnant des données provenant de l'ensemble de l'internet pour former son chatbot à succès, ChatGPT.

Ses préoccupations ont confirmé les allégations formulées ces dernières années par des auteurs, des scénaristes et des programmeurs informatiques qui affirment qu'OpenAI a volé leur contenu sans autorisation, en violation des lois américaines sur « l'utilisation équitable » qui régissent l'utilisation d'œuvres publiées antérieurement.

Les entreprises de médias ont été parmi les premières à poursuivre la société.

OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur

La formation des modèles d’IA, tels que ceux développés par OpenAI, nécessite une quantité massive de données. Selon OpenAI, les matériaux disponibles dans le domaine public ne suffisent pas pour créer des modèles capables de répondre aux besoins actuels des utilisateurs. L’entreprise affirme que le droit d’auteur couvre pratiquement toutes les formes d’expression humaine, rendant ainsi indispensable l’utilisation de contenus protégés pour former des IA performantes.

Cette position a provoqué une vague de réactions négatives, notamment de la part de grandes institutions comme le New York Times et la Authors Guild. Ces entités accusent OpenAI de violer massivement les droits d’auteur et de profiter commercialement des œuvres protégées sans compensation adéquate. Les auteurs célèbres, tels que John Grisham et George R.R. Martin, ont également rejoint les rangs des plaignants, soulignant que l’utilisation non autorisée de leurs œuvres menace leur subsistance.

OpenAI supplie le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

La société d'intelligence artificielle a déclaré dans un document soumis à une sous-commission de la Chambre des Lords que l'utilisation exclusive de contenus du domaine public serait insuffisante pour entraîner le type de grands modèles de langage (LLM) qu'elle construit, suggérant que l'entreprise doit donc être autorisée à utiliser du matériel protégé par le droit d'auteur.

« Étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine - y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux - il serait impossible d'entraîner les meilleurs modèles d'IA actuels sans utiliser des documents protégés par le droit d'auteur », a écrit l'entreprise dans son dossier de preuves. « Limiter les données d'entraînement aux livres et dessins du domaine public créés il y a plus d'un siècle pourrait donner lieu à une expérience intéressante, mais ne permettrait pas de fournir des systèmes d'IA répondant aux besoins des citoyens d'aujourd'hui ».

OpenAI poursuit en insistant dans le document, soumis au comité des communications et du numérique de la Chambre des Lords, sur le fait qu'elle se conforme aux lois sur le droit d'auteur et qu'elle estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement ».

Source : interview de Poornima Ramara

Et vous ?

Que pensez-vous du fait que les parents ont exigé une seconde autopsie ?

Les mécanismes actuels de protection des lanceurs d’alerte sont-ils suffisants, notamment dans les secteurs technologiques ?

Comment garantir que des individus dénonçant des pratiques problématiques puissent le faire sans craindre pour leur sécurité ?

Les grandes entreprises technologiques doivent-elles être soumises à des régulations spécifiques pour prévenir ce type de situation ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gunny
Membre confirmé https://www.developpez.com
Le 30/12/2024 à 22:49
Citation Envoyé par Stéphane le calme Voir le message

OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur

OpenAI supplie le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

La société d'intelligence artificielle a déclaré dans un document soumis à une sous-commission de la Chambre des Lords que l'utilisation exclusive de contenus du domaine public serait insuffisante pour entraîner le type de grands modèles de langage (LLM) qu'elle construit, suggérant que l'entreprise doit donc être autorisée à utiliser du matériel protégé par le droit d'auteur.
"Notre business model est illégal mais vous devez nous laisser continuer sinon on va devoir fermer boutique "
Je ne sais pas pourquoi on tolère ce genre de comportement des entreprises de la tech. Vous vous imaginez vous pointer au tribunal avec ce discours pour n'importe quelle autre entreprise ?
2  0