IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Mort suspecte d'un lanceur d'alerte d'OpenAI : ses parents ne croient pas qu'il se soit suicidé et exigent une seconde autopsie
Relançant le débat sur la protection des lanceurs d'alerte dans le secteur tech

Le , par Stéphane le calme

194PARTAGES

9  0 
Un drame entouré de mystère secoue la communauté technologique. Les parents d’un ancien employé d’OpenAI expriment leurs doutes quant aux circonstances de sa mort, initialement déclarée comme un suicide. Suchir Balaji, devenu lanceur d'alerte concernant les pratiques de l'entreprise en matière de données, a été retrouvé mort dans son appartement à San Francisco le 26 novembre 2024. Il était cité comme témoin dans des affaires judiciaires contre OpenAI comme ayant des « documents pertinents » sur la violation présumée des droits d'auteur par la startup. Suchir Balaji a dénoncé publiquement ce qu'il appelle « la collecte massive et abusive des données » effectuée par OpenAI dans le cadre de la formation de ses modèles d'IA et s'est interrogé sur la légalité de cette pratique.

La mort tragique, à la fin du mois dernier, de l'ancien chercheur d'OpenAI, Suchir Balaji, retrouvé mort dans son appartement de Lower Haight à la suite d'un suicide apparent, suscite un peu plus d'intrigue.

Suchir Balaji avait récemment dénoncé l'utilisation par OpenAI d'œuvres protégées par le droit d'auteur pour entraîner son modèle d'intelligence artificielle ChatGPT, dans une interview publiée en octobre par le New York Times. Outre les problèmes juridiques liés à la consommation de matériel protégé par des droits d'auteur, Balaji a déclaré au Times qu'il ne s'agissait pas non plus d'un « modèle durable pour l'écosystème de l'internet dans son ensemble ».

Le 26 novembre, deux jours avant Thanksgiving, Balaji a été retrouvé mort dans son appartement de Buchanan Street. Le médecin légiste a conclu à un suicide et la police de San Francisco a déclaré qu'il n'y avait « aucune preuve d'acte criminel ».

La mère de Balaji, Poornima Ramarao, qui vit dans la région de la baie, a déclaré cette semaine au Bay Area News Group qu'elle et son mari « exigent une enquête approfondie » sur la mort de leur fils. Ils ne croient pas qu'il se serait suicidé et affirment que rien dans son état mental ne laissait présager une telle éventualité.

« Personne ne croit qu'il aurait pu faire cela », a déclaré madame Ramarao au groupe de presse. La mère explique que son mari et elle avaient parlé à leur fils pour la dernière fois le 22 novembre, lors d'un appel téléphonique de 10 minutes au cours duquel il n'avait rien indiqué de grave. Il avait dit qu'il sortait pour aller dîner.

Des circonstances troubles

Né en Floride et élevé dans la Bay Area, Balaji a été un prodige dès son plus jeune âge, a déclaré sa mère. Il prononçait son nom à 3 mois ; à 18 mois, il me demandait « d'allumer une lampe pour me remonter le moral » et pouvait reconnaître des mots à 20 mois, a-t-elle ajouté.

Balaji semble avoir un don pour la technologie, les mathématiques et l'informatique. Il a remporté des trophées et s'est fait connaître, notamment lors des Olympiades informatiques des États-Unis d'Amérique en 2016.

En 2020, il est allé travailler pour OpenAI, estimant que l'engagement de l'entreprise à fonctionner comme une organisation à but non lucratif était admirable, selon sa mère. Son opinion sur l'entreprise s'est détériorée en 2022, alors qu'il était chargé de recueillir des données sur Internet pour le programme GPT-4 de l'entreprise, a rapporté le New York Times. Ce programme analysait le texte de la quasi-totalité de l'internet afin d'entraîner son programme d'intelligence artificielle.

Madame Ramarao a déclaré qu'elle n'était pas au courant de la décision de son fils d'exprimer publiquement ses inquiétudes au sujet d'OpenAI jusqu'à ce que le journal publie son interview. Si elle s'est immédiatement inquiétée de sa décision (allant jusqu'à lui demander de consulter un avocat spécialisé dans les droits d'auteur) elle s'est également déclarée fière du courage de son fils.

Il n'a cessé de m'assurer : « Maman, je ne fais rien de mal, va voir l'article. Je dis simplement, à mon avis, qu'il n'y a rien de mal là-dedans », a déclaré madame Ramarao, elle-même ancienne employée de Microsoft qui a travaillé sur son programme de cloud computing Azure. « Je l'ai soutenu. Je ne l'ai pas critiqué. Je lui ai dit : « Je suis fière de toi, parce que tu as tes propres opinions et que tu sais ce qui est bien et ce qui est mal ».

Après avoir quitté l'entreprise, Balaji a décidé de créer une association à but non lucratif, centrée sur l'apprentissage automatique et les neurosciences, a déclaré madame Ramarao. Il s'est déjà entretenu avec au moins un investisseur en capital-risque pour obtenir un financement de départ. « Je lui demande, par exemple, comment il va gagner sa vie », a déclaré madame Ramarao. Elle se souvient que son fils a tenté à plusieurs reprises d'apaiser les inquiétudes concernant ses finances, en suggérant que « l'argent n...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gunny
Membre éclairé https://www.developpez.com
Le 30/12/2024 à 22:49
Citation Envoyé par Stéphane le calme Voir le message


OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur

OpenAI supplie le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

La société d'intelligence artificielle a déclaré dans un document soumis à une sous-commission de la Chambre des Lords que l'utilisation exclusive de contenus du domaine public serait insuffisante pour entraîner le type de grands modèles de langage (LLM) qu'elle construit, suggérant que l'entreprise doit donc être autorisée à utiliser du matériel protégé par le droit d'auteur.
"Notre business model est illégal mais vous devez nous laisser continuer sinon on va devoir fermer boutique "
Je ne sais pas pourquoi on tolère ce genre de comportement des entreprises de la tech. Vous vous imaginez vous pointer au tribunal avec ce discours pour n'importe quelle autre entreprise ?
5  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 16/09/2025 à 23:19
Est-ce qu'on imagine une seule seconde un journaliste français osé poser une telle question ?
5  1 
Avatar de azurman
Nouveau Candidat au Club https://www.developpez.com
Le 12/02/2025 à 19:14
Bien sûr, ce n'est pas un suicide !

Les intérêts financiers engagés sont trop importants pour laisser dire que l'IA générative de OpenAI transgresse les droits d'auteur !

Moi, ancien informaticien, vous affirme que l'IA n'est en fait construit qu'à partir d'un ou plusieurs algorithmes écrits par des analystes-programmeurs (ou codeurs de nos jours),
afin d'automatiser une prise de décision en utilisant une base de données dédiée au problème à résoudre... C'est, somme toute de l'informatique, point barre !

Et pour parler de l'IA générative, eh bien oui, pour qu'elle puisse pleinement s'exprimer, elle va relire toutes les publications contenues sur le réseau internet sur le sujet traité, mais aussi celles
protégées par le droit d'auteur....Tout ceci pour servir un résultat plus ou moins faux, puisque basé uniquement sur des publications dont le texte n'est pas "scientifiquement" validé...
Donc, si vous demandez à Chat GPT si la majorité de la population est raciste, il vous répondra invariablement OUI puisque basé sur des publications de racistes qui sont bien plus nombreuses
que celles des non-racistes !

Le seul avantage de l'IA est celle qui est liée aux analyses des images ou vidéos : là oui, il faut de nombreux clusters pour pouvoir analyser des Tera octets de données vidéos, pour
pourvoir analyser une prise de vue et détecter si la personne filmée est porteuse d'une arme ou non....

Bon Bref, toute ces envolées sur l'IA n'est que pure mascarade et toutes les valorisations des sociétés proposant de l'IA sont tout à fait incongrues !

Dernier mot pour bien comprendre : hier, j'ai vu un reportage sur une boulangerie de la chaîne ANGE : le gérant utilise un logiciel qui analyse ses ventes et lui prédit, de façon statistique,
à quel moment de la journée ou de la semaine il va pouvoir vendre plus de pâtisseries. Le journaliste titre "L'IA envahit nos boulangeries" !!! Mais de qui se moque-t-on ?
...Ben de tous ceux qui se font berner et croient "acheter de l'IA" ! Quelle inconscience, que de naïveté, c'est simplement un logiciel informatique, point barre !
4  2 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 12/02/2025 à 23:09
La série télévisée Les Experts a un jour posé le problème, dans la bouche de son personnage de médecin légiste :

"C'est un cas de suicide tout-à-fait classique. L'intéressé avait un bras extensible qu'il a étiré à vingt mètres derrière lui, et de là il s'est tiré une balle dans la tête."
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 11/02/2025 à 14:51
Citation Envoyé par Mathis Lucas Voir le message
Quel est votre avis sur le sujet ?
Que la question d'un assassin n'est pas si pertinente que ça, ce n'est pas parce qu'on se tire une balle dans la tête qu'on ne s'est pas suicidé, ou plutôt qu'on a pas été suicidé.
Un lanceur d'alerte s'attaque à une puissance plus forte que lui. Elle peut donc lui mettre une pression invivable qui peut mener à un craquage (et se donner la mort pour fuir un mal-être trop fort) ou à un acte de sacrifice (se donner la mort pour éviter de mettre son entourage en danger, réel ou perçu).
Et même si ma définition est (probablement) légalement inexacte je n'appelle pas ça se suicider (se donner la mort volontairement en maitrise de ses capacités mentales etc) mais juste se donner la mort.
0  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 11/03/2025 à 12:36
Plus vite, plus fort, plus haut, plus loin ...

OK, mais est-ce qu'un assassinat doit être un argument dans cette bataille ?
0  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 25/07/2025 à 15:45
Meanwhile:
« Néfaste et dangereuse » : Sam Altman, PDG d'OpenAI, met en garde contre la dépendance croissante des jeunes à l'égard du chatbot IA ChatGPT pour la prise de décisions personnelles
Le PDG d'OpenAI, Sam Altman, estime que le monde est peut-être au bord d'une « crise de fraude » à cause de la manière dont l'IA pourrait faciliter l'usurpation d'identité

Le mec passe son temps à alerter sur le fait que marcher est dangereux et vends des chaussures de courses.
Je ne comprend pas bien.
Ou alors c'est le summum de l'accélérationisme.
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 29/01/2025 à 9:37
c'est une bonne idée, je pense qu'une ia sur les sites des gouvernements serait un plus pour nous aider a y faire les démarches.
a Singapour sa m'aurait bien aidé pour me lister toute les chose a faire et comment le faire, mais en France c'est pareil.

l'ia ayant acces en france au revenue/impôts situations familiale, elle pourrait même faire un petit recap de notre situation et des aides qu'on pourrait avoir ou des réductions d’impôts qu'on pourrait bénéficier.
j'irais meme plus loins, elle pourrait même remplacer france travail, en ayant accès aux diplômes et cv, elle pourrait te coacher pour refaire le cv et d'orienter vers des postes pertinents proche de ton adresse déclaré.
0  2